ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
樓上駁文科仔邊夠威
駁到霍金同Elon Musk都覺得自己多慮先最撚勁
冇人話冇可能 只係現階段冇可能做到
上邊已經講左起碼仲要突破幾個科技樽頸位先再有大發展
elon musk係講緊你點運用個技術
如果係運用係軍事方面一個錯誤既人工智能判斷唔能夠跟據人類既思維而飛左支核彈去金仔到爆發左核戰 對人類黎講係毀滅性既打擊
霍金講緊有一部分係人類過份依賴AI而變到冇生產力同創做力
仲提出左600年內人類要離開地球 過程要靠AI但係同時都有提到AI自我學習既可能性
搬D人名出黎唔一定準既
bill gates , zuckerberg,steve jobs生前都 仲好樂觀覺得唔會失控 不如你有提出下D觀點一齊討論下
BTW elon自己都開發緊高階人工智能
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
睇唔明x2
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
睇唔明x2
即係要繼承規則,三大原則要繼承,唔會出現紅字。
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
唔緊要 可能我解釋得唔好
即係你係個前設既大框架下係做唔到框架以外既野
如果你讀過應該好易明 如果你冇讀過自己慢慢消化下
https://en.wikipedia.org/wiki/Object-oriented_programming
係呢個設定下 可以限死晒成個邏緝
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
睇唔明x2
即係要繼承規則,三大原則要繼承,唔會出現紅字。
咁會唔會繼承咗三大但扭曲咗?
好似I, Robot 入面個AI咁
ai 自我繁殖
遲早自我學習清算人類
導致AI要清算人類嘅點係邊?
保護自我種群的繁殖?
人類已經無利用價值
AI唔需要再服務人類
或者
AI得出結論人類係破壞地球嘅元兇所以決定要消滅人類
呢啲大把科幻小說提供哂理由啦
我覺得如果寫AI一開始就寫咗三大原則落去就應該可以避免暴走
但係AI寫AI你就控制唔到
AI寫AI係extend左super class去做
簡單啲黎講
動物點繁殖都係動物唔會變左植物
你個比喻我睇唔明
唔緊要 可能我解釋得唔好
即係你係個前設既大框架下係做唔到框架以外既野
如果你讀過應該好易明 如果你冇讀過自己慢慢消化下
https://en.wikipedia.org/wiki/Object-oriented_programming
係呢個設定下 可以限死晒成個邏緝
係咪即係我一開始set比佢個世界係一個10*10 嘅框框要佢自己諗方法填滿佢
佢點發展都唔會走出呢10*10 嘅範圍咁?
就當一段code就可以限制到ai
他朝有一日 有人唔小心 或者有人特登 唔加個code
就已經可以一乘十 十乘百 咁落去?
有好多人仲覺得AI係好似電腦咁,話「一開始電腦出現夠多人驚失業啦,最後電腦咪又係要人操控」,但AI(如果完善係strong ai)係完全唔同嘅嘢,由產品設計到生產銷售完全唔需要人去控制,唔好話會唔會發展到有自主意識毁滅人類嗰啲,除非你本身可以利用佢幫你賺錢,如果唔係都係等失業。
仲有人話創作方面AI係做唔到,但其實一早已經有AI識寫bgm,識得模仿畫家設計師去進行平面創作,相似度高度人類都分唔到,仲有團隊研發緊可以寫小說嘅AI。
唔係想危言聳聽,但我自己都覺得好撚驚,唔知人類以後仲有啲咩生存價值。
Google這次測試,整體來說仍然是在人類的控制範圍內,製作孩子 AI 的目標,也是開發人員建立的。距離 AI 突發奇想,或者有主動思考,然後「AI生成AI毀滅人類」的聯想還差很遠。
啲語氣講到就嚟失控咁
唔好再講
邊撚個成日話AI毀滅人類
AI有咩動機要毀滅人類先?
陰謀論發作
Ai 做野係以益處與壞處去做
例如之前捉圍棋, 佢就係選D人類覺得唔應該但係利益來講係好既去行
而 Ai 當有一學知自己既生存環境係地球時
佢地最終只會得出一個結論, 就係消滅人類對地球生存先係最好益處
就當一段code就可以限制到ai
他朝有一日 有人唔小心 或者有人特登 唔加個code
就已經可以一乘十 十乘百 咁落去?
咁原來AI叻啲定寫出嚟個AI叻啲?
個新既AI又可唔可以寫個再新啲既AI出嚟?
可以既真係無限Loop
黃川b最口力口力豖者 工丂イ以イ系
如果不停叫新ai寫一個更新既ai loop住 會唔會好快真係有電影d ai 出黎
Google這次測試,整體來說仍然是在人類的控制範圍內,製作孩子 AI 的目標,也是開發人員建立的。距離 AI 突發奇想,或者有主動思考,然後「AI生成AI毀滅人類」的聯想還差很遠。
啲語氣講到就嚟失控咁
唔好再講
邊撚個成日話AI毀滅人類
AI有咩動機要毀滅人類先?
陰謀論發作
Ai 做野係以益處與壞處去做
例如之前捉圍棋, 佢就係選D人類覺得唔應該但係利益來講係好既去行
而 Ai 當有一學知自己既生存環境係地球時
佢地最終只會得出一個結論, 就係消滅人類對地球生存先係最好益處
Google這次測試,整體來說仍然是在人類的控制範圍內,製作孩子 AI 的目標,也是開發人員建立的。距離 AI 突發奇想,或者有主動思考,然後「AI生成AI毀滅人類」的聯想還差很遠。
啲語氣講到就嚟失控咁
唔好再講
邊撚個成日話AI毀滅人類
AI有咩動機要毀滅人類先?
陰謀論發作
Ai 做野係以益處與壞處去做
例如之前捉圍棋, 佢就係選D人類覺得唔應該但係利益來講係好既去行
而 Ai 當有一學知自己既生存環境係地球時
佢地最終只會得出一個結論, 就係消滅人類對地球生存先係最好益處
又或者ai聰明到發現點解要比蠢過自己既人類控制