保障人工智能安全需要確保AI始終說真話。

馬斯克:AI終結(jié)人類的概率是20%,積極超過消極

2024-04-02 11:10:02發(fā)布     來源:多知    作者:Penny  

  多知4月2日消息,埃隆·馬斯克 (Elon Musk) 在為期四天的豐富峰會期間的“人工智能大辯論”研討會上談到了人工智能 (AI) 的風(fēng)險(xiǎn)。考慮到人工智能對人類造成危險(xiǎn)的可能性很小(大約 10% 到 20%),他表示,冒險(xiǎn)仍然值得。

  馬斯克沒有深入探討具體細(xì)節(jié),但他說:“我認(rèn)為它有可能終結(jié)人類。我可能同意 Geoff Hinton(被譽(yù)為深度學(xué)習(xí)教父) 的觀點(diǎn),即大約是 10% 或 20% 或類似的數(shù)字。我認(rèn)為積極情況可能超過了消極情況。”

  對于如何保障人工智能安全?埃隆·馬斯克在峰會上表示,保障人工智能安全的計(jì)劃很簡單:確保人工智能始終說真話,因?yàn)橐坏┤斯ぶ悄軐W(xué)會說謊,就很難停下來。

  埃隆·馬斯克說,到2030年人工智能將比人類更聰明,這就是為什么需要更加小心該技術(shù)的不良后果。他將制造超級智能的人工智能與培養(yǎng)一個真正聰明的孩子進(jìn)行了比較,他表示,教會人工智能始終說真話并保持好奇心非常重要。

  “你培養(yǎng)了一個 AGI。這幾乎就像撫養(yǎng)一個孩子,但是一個像超級天才,你如何撫養(yǎng)這個孩子很重要,”他補(bǔ)充說,“其中之一我認(rèn)為對于人工智能安全來說非常重要的是擁有最大程度的尋求真相和好奇的人工智能。”(多知 Penny)