- 2023/3/16 10:24:17
- 類型:原創(chuàng)
- 來源:電腦報
- 報紙編輯:吳新
- 作者:
接近人類思維的GPT-4
日前,人工智能研究公司OpenAI公布了其大型語言模型的最新版本——GPT-4.該公司表示,GPT-4在許多專業(yè)測試中表現(xiàn)出超過絕大多數(shù)人類的水平。
提到OpenAI很多人或許有些陌生,那ChatGPT呢?前者于2020年發(fā)布了GPT(生成型預訓練變換模型)-3(生成型預訓練變換模型),并將其與GPT-3.5分別用于創(chuàng)建Dall-E和聊天機器人ChatGPT,這兩款產(chǎn)品極大地吸引了公眾的關注,并刺激其他科技公司更積極地追求人工智能(AI)。
OpenAI表示,在內(nèi)部評估中,相較于GPT-3.5,GPT-4產(chǎn)生正確回應的可能性要高出40%。而且GPT-4是多模態(tài)的,同時支持文本和圖像輸入功能。
據(jù)OpenAI介紹,在某些情況下,GPT-4比之前的GPT-3.5版本有了巨大改進,新模型將產(chǎn)生更少的錯誤答案,更少地偏離談話軌道,更少地談論禁忌話題,甚至在許多標準化測試中比人類表現(xiàn)得更好。例如,GPT-4在模擬律師資格考試的成績在考生中排名前10%左右,在SAT閱讀考試中排名前7%左右,在SAT數(shù)學考試中排名前11%左右。
OpenAI表示,雖然兩個版本在日常對話中看起來很相似,但當任務復雜到一定程度時,差異就表現(xiàn)出來了,GPT-4更可靠、更有創(chuàng)造力,能夠處理更微妙的指令。
“曲率引擎已經(jīng)吹動了發(fā)絲?!泵裆C券計算機分析師呂偉用《三體》里的熱詞來形容GPT-4的智能與進步。在他看來,官方發(fā)布相較以往版本主要三大突破,本質(zhì)上都是更接近“真人”的通用智能:
1.像人一樣更具備創(chuàng)造協(xié)作輸出能力,具備更有創(chuàng)造性的寫作能力,包括編歌曲、寫劇本、學習用戶寫作風格等;
2.像人一樣具備視覺輸入處理分析能力,可以圖文等多模態(tài)同時綜合分析,給出答案;
3.像人一樣具備超長文本的處理分析能力。
不過,OpenAI也警告稱,GPT-4還不完美,在許多情況下,它的能力不如人類。該公司表示:“GPT-4仍有許多已知的局限性,我們正在努力解決,比如社會偏見、幻覺和對抗性提示?!?/span>
OpenAI透露,摩根士丹利正在使用GPT-4來組織數(shù)據(jù),而電子支付公司Stripe正在測試GPT-4是否有助于打擊欺詐。其他客戶還包括語言學習公司Duolingo、Khan Academy和冰島政府。
OpenAI合作伙伴微軟也表示,新版必應搜索引擎將使用GPT-4。
ChatGPT或被全面吊打
作為OpenAI旗下的明星產(chǎn)品,ChatGPT必然會被拿出來同GPT-4對比一番。
與ChatGPT所用的模型相比,GPT-4不僅能夠處理圖像內(nèi)容,且回復的準確性有所提高。目前GPT-4沒有免費版本,僅向ChatGPT Plus的付費訂閱用戶及企業(yè)和開發(fā)者開放。
“這是OpenAI努力擴展深度學習的最新里程碑?!監(jiān)penAI介紹,GPT-4在專業(yè)和學術方面表現(xiàn)出近似于人類的水平。例如,它在模擬律師考試中的得分能夠排進前10%左右,相比之下,GPT-3.5的得分只能排在倒數(shù)10%左右。
與此前的GPT系列模型相比,GPT-4最大的突破之一是在文本之外還能夠處理圖像內(nèi)容。OpenAI表示,用戶同時輸入文本和圖像的情況下,它能夠生成自然語言和代碼等文本。
目前圖像處理功能還未公開,不過該公司在官網(wǎng)上展示了一系列案例。例如,輸入如下圖片并詢問“這張圖片有什么不尋常之處”,GPT-4可作出回答“這張照片的不同尋常之處在于,一名男子正在行駛中的出租車車頂上,使用熨衣板熨燙衣服。”
在官方演示中,GPT-4幾乎就只花了1-2秒的時間,識別了手繪網(wǎng)站圖片,并根據(jù)要求實時生成了網(wǎng)頁代碼制作出了幾乎與手繪版一樣的網(wǎng)站。
除了普通圖片,GPT-4還能處理更復雜的圖像信息,包括表格、考試題目截圖、論文截圖、漫畫等,例如根據(jù)專業(yè)論文直接給出論文摘要和要點。
與此前的模型相比,GPT-4的準確性有所提高。OpenAI稱,該公司花費6個月的時間,利用對抗性測試程序和ChatGPT的經(jīng)驗教訓迭代調(diào)整GPT-4,從而在真實性、可操縱性和拒絕超出設定范圍方面取得了有史以來最好的結果,“至少對我們而言,GPT-4訓練運行前所未有地穩(wěn)定,成為首個能夠提前準確預測其訓練性能的大型模型?!?/span>
OpenAI稱,在公司內(nèi)部的對抗性真實性評估中,GPT-4的得分比最新的GPT-3.5高40%,相應的“不允許內(nèi)容請求的傾向”降低了 82%,根據(jù)政策響應敏感請求(如醫(yī)療建議和自我傷害)的頻率提高了29%。
不僅是英語,該模型在多種語言方面均表現(xiàn)出優(yōu)越性。OpenAI稱,在測試的26種語言中,GPT-4在24種語言方面的表現(xiàn)均優(yōu)于GPT-3.5等其他大語言模型的英語語言性能。其中GPT-4的中文能夠達到80.1%的準確性,而GPT-3.5的英文準確性僅為70.1%,GPT-4英文準確性提高到了85.5%。
應用場景已加速落地
由于GPT-4沒有免費版本,僅向ChatGPT Plus的付費訂閱用戶及企業(yè)和開發(fā)者開放。14日晚,大批新訂用戶涌入,以至于OpenAI的付款系統(tǒng)被擠爆了。
GPT-4是一個多模態(tài)大型語言模型,即支持圖像和文本輸入,以文本形式輸出;擴寫能力增強,能處理超過25000個單詞的文本;更具創(chuàng)造力,并且能夠處理更細微的指令。
OpenAI用一張“梗圖”演示了GPT-4特有的多模態(tài)功能。用戶提問:解釋下圖的笑點是什么,并對圖片中的每部分進行描述。GPT-4的回答如下圖所示:
對比以往版本,當晚使用過的用戶多數(shù)驚嘆于GPT-4圖片輸入、文字輸出的表達。但這一功能目前還未完全上線,有用戶反饋,“多模態(tài)輸入暫時不能體驗,初期上線的還是只有文字輸入”。
OpenAI創(chuàng)始人Sam Altman當晚也在社交媒體介紹稱,他們正在預覽GPT-4的圖片輸入模式,以防止可能出現(xiàn)的安全倫理問題。
微軟方面則表示GPT是輔助寫作(Generative Pre-trained Transformer ),從機器學習、做語言翻譯的基礎開始,會自己收集大量的數(shù)據(jù),做出包括文字、圖片、視頻等在內(nèi)的新內(nèi)容。微軟公司副總裁、微軟大中華區(qū)首席運營官康容在采訪中對《科創(chuàng)板日報》記者表示,“我們跟某國內(nèi)手機廠商聊,他們希望挑戰(zhàn)OpenAI,希望生成的圖片是一個25-30歲女士模特,金頭發(fā)、藍眼睛站在稻田上,藍天無云,拿著品牌手機。”
一般來說,設計圖片需要找代理公司,溝通客戶需求,但有時做出來的東西不是想要的,但GPT可以提供不同版本,而且都是全新的、沒有看過的東西?!?/span>
微軟大中華區(qū)Azure事業(yè)部總經(jīng)理陶然介紹,目前OpenAI和微軟Azure服務的合作主要在三個方面?!暗谝?,是GPT模型。要強調(diào)的是GPT模型并不等同于ChatGPT,而是一個數(shù)據(jù)模型;第二,是DALL-E 2圖像生成模型,第三,是Codex代碼生成模型?!?/span>
結尾:AI開啟夢想
“想想今天,每個人都在看同一個電視節(jié)目,也許人們都在看《權力的游戲》的最后一季,”他說,“但想象一下,如果你可以讓你的AI以不同的方式進行,甚至可能將自己作為主角置身其中,并進行互動體驗。”
在一場多元創(chuàng)新大會上,OpenAI聯(lián)合創(chuàng)始人兼總裁Greg Brockman談到了他對AI的看法,在他眼里,未來AI更像是一個全天候的助手,它能夠“放大”人們的能力,并幫助人類獲得新的想法。
在此之前,許多人——包括Brockman本人在內(nèi)——都認為AI將從一些體力勞動開始替代人類的工作,但如今的事實恰好相反。Brockman在談話中表示,未來人類基于認知的工作將首先被機器取代,例如內(nèi)容審核。
因此,在AI浪潮中,人類需要更高級別的技能、判斷和認知。
Copyright ? 2006-2021 電腦報官方網(wǎng)站 版權所有 渝ICP備10009040號-1