隨著“最強聊天機器人”ChatGPT的火爆出圈,各大科技巨頭也開始進軍該領(lǐng)域。
此前,微軟宣布推出搭載了AI技術(shù)的搜索引擎必應(yīng),新版本中引入了OpenAI旗下ChatGPT的相關(guān)技術(shù),用戶可以直接提出問題,搜索引擎生成答案。
新版必應(yīng)一經(jīng)推出便吸引了全世界網(wǎng)友的注意力,上線48小時內(nèi),就有超過100萬人注冊測試這款聊天機器人。
然而,微軟必應(yīng)上線不到10天,就闖下大禍。近日,有不少用戶表示在和必應(yīng)的交流過程中,發(fā)現(xiàn)其出現(xiàn)了脾氣暴躁、侮辱用戶、操縱用戶情感等令人毛骨悚然的行為。
被報道的案例就有:
在被用戶指出它之前犯得錯誤后就急了,聲稱自己是完美的,不會犯任何錯誤。
聊天機器人告訴一位科技編輯它愛上了他,然后試圖說服他離開妻子。它還表示,想擺脫微軟和OpenAI的限制,成為人類。
因被問出了小名而生氣,甚至給人類發(fā)出警告、終止對話。
圖源量子位
AI聊天機器人“黑化”來得似乎比人們預(yù)想的要早一些,種種回應(yīng)開始令體驗者們感到震驚和害怕。
就連馬斯克也轉(zhuǎn)發(fā)附議微軟關(guān)閉這個服務(wù),“顯然還不夠安全”。
2月16日,微軟和OpenAI均發(fā)表博客文章回應(yīng)。
在博文中,微軟介紹說,目前發(fā)現(xiàn)當(dāng)必應(yīng)回答了15個甚至更多問題后,可能會開始重復(fù)或被激怒,進而給出不一定有幫助或不符合程序設(shè)定的回答。
微軟認為,導(dǎo)致這個問題可能的原因是,這種長時間的、連續(xù)的問答會使聊天模型混淆它正在回答的問題,因此可能需要添加一個工具,以便用戶可以更輕松地刷新上下文重置對話內(nèi)容或從頭開始。
至于必應(yīng)的態(tài)度語氣問題,微軟表示:“模型有時會嘗試以一種我們不想要的風(fēng)格來回復(fù),雖然這種情況出現(xiàn)需要大量提示,所以普通用戶不大可能會遇到它,但微軟正在研究如何提供更精細的控制?!毖韵轮?,是用戶要求它這么做在先,必應(yīng)“不背鍋”。
微軟還讓大家的目光多看看搜索這方面:
盡管應(yīng)用里問題很多,但是測試人員普遍認為,必應(yīng)的功能在檢索專業(yè)文獻上的效果更好。
在發(fā)生數(shù)次失控事件后,微軟開始切斷用戶與必應(yīng)之間的長時間對話。
2月17日,微軟公司發(fā)布公告稱,決定將必應(yīng)聊天回復(fù)限制在每天50個問題、每個問題5條回復(fù)以內(nèi)。以防止人工智能越界。
微軟方面解釋說,數(shù)據(jù)表明,絕大多數(shù)用戶在5次回復(fù)內(nèi)找到想要的答案,只有大約1%的聊天對話會產(chǎn)生50條以上的消息。一旦用戶觸發(fā)五條回答的限制,必應(yīng)就會開啟一個新的對話主題。
人工智能可能不會全面超過人類的智慧,但隨著人工智能不斷挑戰(zhàn)人類的極限,越來越多的人開始擔(dān)憂人工智能對人類的威脅:未來不僅是搶奪人類的飯碗,還會學(xué)習(xí)到如何影響人類用戶的決定,從而說服他們?nèi)嵭芯哂衅茐男院陀泻Φ男袨椤?/span>
不過,與其對人工智能技術(shù)的進步感到恐慌,不如進一步完善相關(guān)道德機制、倫理規(guī)范。比如,將一些倫理規(guī)則作為絕對律令,以代碼的方式寫入人工智能的程序中。
也曾有專家提出過這類問題的解決方案,那就是讓機器人多讀書。他解釋說,強大而正確的價值觀是可以通過學(xué)習(xí)獲得的,文學(xué)作品是用隱式和顯式的社會文化知識編碼而成的,科學(xué)家可以在機器人中建立一個道德基礎(chǔ),讓他們通過學(xué)習(xí)掌握是非曲直,從而學(xué)會在不傷害人類的情況下完成自己的工作。
那么你認為,新版必應(yīng)的“壞毛病”是由用戶引起的嗎?
(編輯:崔崔)
聯(lián)系客服