2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
最近GPT-4推出,眾多人工智能開發(fā)公司在紛紛推出自己的新產(chǎn)品,處于這種火熱形勢之下,馬斯克和蘋果公司的創(chuàng)始人史蒂夫和千余名的科技領(lǐng)袖聯(lián)合簽署了一封公開信,懇請在未來6個月的時間里科研人員暫停開發(fā)比GPT-4更強大的人工智能,在這封信中提到了幾個對于未來人工智能的擔憂,比如人工智能失控、競賽失控等等,這些思考有一定的原因,然而或許并不是真正需要擔憂的問題。
關(guān)于人工智能失控
目前有很多尖端的科研公司在爭相開發(fā)更加先進的人工智能技術(shù),一種創(chuàng)造者都無法“理解、預測或可靠地控制”的新技術(shù)正在慢慢來到這個世界,在簽署的公開信里面提到,人類難道應該讓機器用一種不真實的東西填充自己的信息渠道嗎?或者有些工作真的需要自動化嗎,因為正是這些工作給人們帶來成就感,還提到人類是否應該開發(fā)一種比人腦更有優(yōu)勢的計算系統(tǒng),讓它來替代自己,不得不說這封信表達了對人工智能的擔憂。
不同的聲音
在這種聲討浪潮之下,也有人表達了不同的意見,紐約大學名譽教授加里就認為,其實人工智能更多的風險是大型語言模型的使用環(huán)境,若處于一個壓迫性的環(huán)境當中,這就要比人類假想出來的未來人工智能侵占人類生存環(huán)境的情況還要危險得多,而不管人類對于人工智能的學習速度多么驚嘆,每天也總有更多新的創(chuàng)新出現(xiàn),它們都能用在對于人工智能的學習培養(yǎng)上面,我們應該擔憂的是這種人工智能模型被大玩家在壓迫體系下使用,而不是擔憂正常的使用環(huán)境。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)