早在2014年徐可第一次創(chuàng)業(yè)時,她已經(jīng)通過查看Openai代碼庫的方式,深刻地了解了這家公司,所以對于ChatGPT,徐可有著獨到的見解。徐可認為:“ChatGPT火爆背后是認知智能技術的一次飛躍,或?qū)⒊蔀槿斯ぶ悄苄袠I(yè)發(fā)展的里程碑和分水嶺。且ChatGPT有更多的商業(yè)價值和大行業(yè)前景,因為它能夠提供更多工作崗位和商業(yè)機會,例如輸入文本生成圖像、根據(jù)需求迅速寫出代碼、創(chuàng)造更成熟的文案等。”
Openai 代碼庫曾號稱永久開源,并且不會用于商業(yè)盈利。現(xiàn)在看來,Openai違背了他們的初心——核心代碼庫早在 2016年就停止了開源。且Elon Musk也曾是Openai的聯(lián)合創(chuàng)始人之一,但其與Openai管理層理念不合,在2019年退出了Openai公司,并在接管推特后終止了ChatGPT 和推特的學習連接。
雖然ChatGPT具備強大的學習能力,但由于其核心代碼目的不明確,這不禁會讓人聯(lián)想到霍金曾提到過的奇點降臨,“一旦人工智能跨過了與人類智慧相同的“奇點”( Singular Point ),我們可能會面臨“智慧爆炸”(intelligence explosion),屆時,人工智能在智慧上超越人類。這對人類產(chǎn)生的影響,要么就是最好的,要么就是最糟糕的。它既可能讓人類永生,也可能讓人類毀滅”。
徐可認為:“ChatGPT在受到熱議的同時,也遭到一些質(zhì)疑,比如Eloquent、能言善辯、夸夸其談等。正是因為這些特性,當奇點降臨時,AI可能不會第一時間通過戰(zhàn)爭的形式打擊人類,而是在社交媒體散布虛假、恐怖信息等方式引起人類的恐慌和社會秩序的混亂。”
正因如此,徐可補充說:“AI的治理迫在眉睫,且我們需要重點關注兩個方面:
第一,控制AI的自我編譯能力。一旦奇點降臨,AI掌握了自我編譯能力,就意味著AI將突破人類對其的限制,這會導致計算機軟硬件可以自動演進、爆發(fā)式成長等,屆時,AI將徹底失控。
第二,篩選AI學習的信息源。如果AI學習的信息源過于反人類,這會導致社交媒體上有過多的反人類信息被傳播,會對認知較低的人群產(chǎn)生毀滅性的危害。如果再被利用到人類的派系斗爭中,AI極有可能被培養(yǎng)成戰(zhàn)爭機器。”
嘉賓提問:未來如何區(qū)分人類和AI?
徐可認為:“或許可以通過與去中心化社交結合的方式來解決。就熱門的Nostr協(xié)議來說,由于使用的是公私鑰體系、Client和Relay完成社交的去中心化,如果添加一個去中心化錢包,即可區(qū)分出人類與AI的區(qū)別。因為AI只能擁有公私鑰,且無法持有有價值的Token,這一方法可以在一定范圍內(nèi)避免AI的危言聳聽,同時也可以參考這個思路,創(chuàng)造出更多的AI治理模式。”