導(dǎo)讀:當(dāng)?shù)貢r間周二,人工智能研究實驗室OpenAI 發(fā)布了最新版的大型語言模型 GPT-4。
3 月 15 日消息,當(dāng)?shù)貢r間周二,人工智能研究實驗室OpenAI 發(fā)布了最新版的大型語言模型 GPT-4。這一讓人期待已久的高級工具不僅可以自動生成文字,還可以描述分析圖像內(nèi)容;不僅推高人工智能浪潮的技術(shù)水平,也讓技術(shù)開發(fā)的道德邊界愈發(fā)變得不可忽視。
OpenAI 早期上線的聊天機器人 ChatGPT 用自動生成的流暢文字獲得了大量關(guān)注,也讓公眾對其杜撰論文、虛構(gòu)劇本的能力感到不安。要知道,ChatGPT 用的還是一年多前就已經(jīng)落伍的老一代技術(shù) GPT-3。
相比之下,最先進(jìn)的 GPT-4 模型不僅能夠自動生成文字,還能夠根據(jù)用戶的簡單要求描述圖像。例如,當(dāng)向 GPT-4 展示拳擊手套掛在一端有球的木制蹺蹺板上的照片時,用戶問如果手套掉下來會發(fā)生什么,GPT-4 會回答說它會撞到蹺蹺板,讓球飛起來。
早期測試者曾聲稱,GPT-4 在推理和學(xué)習(xí)新事物的能力方面非常先進(jìn)。微軟周二也透露,上個月發(fā)布的必應(yīng)人工智能聊天機器人一直在使用 GPT-4。
開發(fā)者周二表示,這項技術(shù)將進(jìn)一步徹底改變?nèi)藗兊墓ぷ骱蜕?。但同時這也讓公眾擔(dān)心,人工該如何與這種精密得可怕的機器競爭,人們該如何相信自己在網(wǎng)上看到的內(nèi)容。
OpenAI 高管們表示,GPT-4 跨文本和圖像的“多模式”使其在“高級推理能力”方面遠(yuǎn)超過 ChatGPT。由于擔(dān)心功能被濫用,公司推遲發(fā)布 GPT-4 的圖像描述功能,而且 GPT-4 支持的 ChatGPT Plus 服務(wù)訂閱用戶只能用文本功能。
OpenAI 政策研究員桑迪尼?阿加瓦爾(Sandhini Agarwal)稱,公司之所以還沒發(fā)布這一功能,是為了更好地了解潛在風(fēng)險。OpenAI 發(fā)言人尼科?費利克斯 (Niko Felix) 表示,OpenAI 正計劃“實施保障措施,防止圖像中的個人信息被識別”。
OpenAI 還承認(rèn),GPT-4 仍會有“產(chǎn)生幻覺”、出現(xiàn)無稽之談、延續(xù)社會偏見,以及提供糟糕建議等慣常錯誤。
微軟已經(jīng)向 OpenAI 投資幾十億美元,希望人工智能技術(shù)能成為旗下辦公軟件、搜索引擎和其他在線產(chǎn)品的殺手锏。該公司將這項技術(shù)宣傳成超級高效的合作伙伴,可以處理重復(fù)性工作,讓人們專注于創(chuàng)造性工作,比如說幫助軟件開發(fā)人員完成整個團隊工作。
但有關(guān)注人工智能的人士表示,這些可能只是表象,人工智能可能會導(dǎo)致沒人能預(yù)料的商業(yè)模式和風(fēng)險。
人工智能的快速發(fā)展,加上 ChatGPT 的爆火,導(dǎo)致業(yè)內(nèi)公司圍繞爭奪人工智能領(lǐng)域主導(dǎo)地位展開激烈競爭,競相發(fā)布新軟件。
這種狂熱也引發(fā)了不少批評。很多人認(rèn)為這些公司急于推出未經(jīng)測試、不受監(jiān)管且不可預(yù)測的技術(shù),可能會欺騙用戶,破壞藝術(shù)家的作品,并給現(xiàn)實世界帶來傷害。
由于設(shè)計上就是為了生成令人信服的措辭,人工智能語言模型經(jīng)常會提供錯誤答案。而且這些模型要用網(wǎng)絡(luò)上的信息和圖像接受訓(xùn)練,也學(xué)會了模仿人類偏見。
OpenAI 研究人員在一份技術(shù)報告中寫道,“隨著 GPT-4 和類似的人工智能系統(tǒng)被廣泛采納”,它們“會強化固有見解”。
OpenAI 前研究員、開源人工智能公司 Hugging Face 政策總監(jiān)艾琳?索萊曼 (Irene Solaiman) 認(rèn)為,這種技術(shù)進(jìn)展的速度需要全社會對潛在問題及時做出反應(yīng)。
她進(jìn)一步表示,“作為社會一員,我們已經(jīng)可以在一些不應(yīng)該由模型造成的危害方面達(dá)成廣泛共識”,“但許多傷害是微妙的,主要影響的是少數(shù)群體。”她補充說,那些有害的偏見“不能成為人工智能性能的次要考慮因素?!?/p>
最新的 GPT-4 也并不完全穩(wěn)定。當(dāng)用戶祝賀人工智能工具升級為 GPT-4 時,它的回應(yīng)是“我仍然是 GPT-3 模型”。然后被糾正后它為此道歉,并說:“作為 GPT-4,我感謝你的祝賀!”隨后用戶又開玩笑稱,它實際上仍然是 GPT-3 模型,人工智能再次道歉,并說自己“確實是 GPT-3 模型,而不是 GPT-4”。
OpenAI 發(fā)言人費利克斯表示,公司研究團隊正在調(diào)查問題出在哪里。
周二,人工智能研究人員批評 OpenAI 披露的信息不足。公司并沒有公布有關(guān) GPT-4 存在哪些偏見的評估數(shù)據(jù)。熱切的工程師們也失望發(fā)現(xiàn),關(guān)于 GPT-4 模型、數(shù)據(jù)集或訓(xùn)練方法的細(xì)節(jié)信息很少。OpenAI 在技術(shù)報告中表示,考慮到面對的“競爭格局和安全影響”,該公司不會透露這些細(xì)節(jié)。
GPT-4 所處的多感官人工智能領(lǐng)域競爭激烈。谷歌母公司 Alphabet 旗下人工智能公司 DeepMind 去年發(fā)布了一個名為 Gato 的全能模型,可以描述圖像和玩視頻游戲。谷歌本月發(fā)布了一款多模式系統(tǒng) PaLM-E,能將人工智能視覺和語言分析整合到單臂機器人中。例如,如果有人讓它去取一些芯片,它可以理解這個請求,轉(zhuǎn)向抽屜,選擇合適的物體。
類似系統(tǒng)激發(fā)了人們對這項技術(shù)潛力的無限樂觀,一些人甚至從中看到幾乎與人類同等的智能水平。然而,正如批評者和人工智能研究人員認(rèn)為那樣,這些系統(tǒng)只是在重復(fù)訓(xùn)練數(shù)據(jù)中發(fā)現(xiàn)既定模式和固有關(guān)聯(lián),并沒有清楚理解其中之意。
GPT-4是自 2018 年 OpenAI 首次發(fā)布以來的第四個“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”,基于 2017 年開發(fā)的突破性神經(jīng)網(wǎng)絡(luò)技術(shù)“轉(zhuǎn)換器”。這種通過分析網(wǎng)絡(luò)文字和圖像進(jìn)行“預(yù)訓(xùn)練”的系統(tǒng)讓人工智能系統(tǒng)在如何分析人類語音和圖像的方式方面取得了飛速進(jìn)展。
多年來,OpenAI 也從根本上改變了向大眾發(fā)布人工智能工具的潛在社會風(fēng)險。2019 年,該公司曾拒絕公開發(fā)布 GPT-2,稱雖然人工智能表現(xiàn)非常好,但他們擔(dān)心會出現(xiàn)使用它的“惡意應(yīng)用程序”。
但去年 11 月,OpenAI 公開上線了基于 GPT-3 微調(diào)版本的 ChatGPT。在發(fā)布后的短短幾天內(nèi),用戶就超過了 100 萬。
ChatGPT 和必應(yīng)聊天機器人的公開實驗表明,如果沒有人工干預(yù),這項技術(shù)離完美表現(xiàn)還很遠(yuǎn)。在出現(xiàn)一系列奇怪對話和錯誤答案后,微軟高管承認(rèn),就提供正確答案而言,人工智能聊天機器人仍然不值得信賴,但表示正在開發(fā)“信心指標(biāo)”來解決這個問題。
GPT-4 有望改進(jìn)一些缺點,科技博主羅伯特?斯科博 (Robert Scoble) 等人工智能倡導(dǎo)者認(rèn)為,“GPT-4 比任何人預(yù)期的都要好?!?/p>
OpenAI 首席執(zhí)行官薩姆?奧爾特曼 (Sam Altman) 曾試圖緩和人們對 GPT-4 的期望。他在 1 月份表示,對 GPT-4 能力的猜測已經(jīng)達(dá)到了不可能的高度,“關(guān)于 GPT-4 的謠言是荒謬的”,“他們會失望的?!?/p>
但奧爾特曼也在推銷 OpenAI 的愿景。在上個月的一篇博客文章中,他表示,公司正在計劃如何確?!八腥祟悺倍际芤嬗凇巴ㄓ萌斯ねㄓ媚堋?AGI)。這個行業(yè)術(shù)語指的是一種仍然不切實際的想法,要讓超級人工智能和人類一樣聰明,甚至比人類更聰明。