咨詢電話(微信同號)
18905829229

業(yè)內(nèi)稱ChatGPT風(fēng)格搜索會讓谷歌成本增加10倍 每年多花幾十億

來源:網(wǎng)絡(luò)轉(zhuǎn)載作者:網(wǎng)易科技報道 時間:2023-02-23

2月23日消息,隨著人工智能聊天工具ChatGPT持續(xù)火爆,諸如谷歌和微軟等提供搜索業(yè)務(wù)的公司已經(jīng)開始在搜索界面中整合人工智能聊天機器人功能。但對于這些科技巨頭來說,這種聊天機器人風(fēng)格的搜索引擎會讓運營成本增加10倍,帶來高達幾十億美元的支出。

整個科技行業(yè)的高管們都在討論運營像ChatGPT這種人工智能的高昂費用。OpenAI公司首席執(zhí)行官薩姆·奧特曼(Sam Altman)曾在推特上說,ChatGPT每次和用戶對話的計算成本高達幾美分或更多,“讓人難以忍受”。

谷歌母公司Alphabet董事長約翰·漢尼斯(John Hennessy)在接受采訪時表示,盡管微調(diào)有助于迅速降低成本,但“與大型語言模型等人工智能交換信息的成本可能是完成標準關(guān)鍵字搜索功能的10倍以上”。

2022年Alphabet凈利潤接近600億美元。分析師們表示,即使基于聊天機器人的搜索業(yè)務(wù)有廣告收入,這項技術(shù)也可能對Alphabet的利潤產(chǎn)生不利影響,并帶來幾十億美元的額外成本。

投行摩根士丹利估計,谷歌去年3.3萬億次搜索查詢的成本約為每條0.55美分,根據(jù)人工智能要生成的文本量,這個數(shù)字只會多不會少。分析師預(yù)計,如果“類似ChatGPT的人工智能聊天機器人能夠用50個字的答案處理只有當(dāng)今搜索一半的查詢量”,那么到2024年,谷歌每年成本就要增加60億美元。

其他分析師也有類似看法。專注于芯片技術(shù)的研究和咨詢公司SemiAnalysis表示,考慮到谷歌新推出的張量處理單元(Tensor Processing Units)以及其他優(yōu)化措施,在搜索中添加ChatGPT風(fēng)格的人工智能可能會讓Alphabet多花30億美元。

這種人工智能比傳統(tǒng)搜索引擎更昂貴的原因是所涉及的計算能力更高。分析人士表示,這種人工智能依賴于造價幾十億美元的芯片,相應(yīng)成本需要分攤到幾年的使用壽命中。所消耗的電力同樣會增加企業(yè)運營成本和碳排放指標方面的壓力。

處理人工智能搜索查詢的過程被稱為“推理”,每次搜索時啟動模仿人腦的巨大神經(jīng)網(wǎng)絡(luò),生成一堆文本,可能還會查詢大型搜索索引信息來獲取事實信息。

Alphabet的漢尼斯表示,“你必須降低推理成本,”他稱“最壞情況下需要幾年時間”。

盡管運營費用高昂,Alphabet仍需要考慮如何應(yīng)對來自其他科技公司的挑戰(zhàn)。本月早些時候,競爭對手微軟展示了如何將人工智能聊天機器人嵌入必應(yīng)搜索引擎的計劃。據(jù)Similarweb估計,微軟高管們瞄準的是谷歌高達91%的搜索市場份額。

微軟首席財務(wù)官阿米·胡德(Amy Hood)告訴分析師,隨著改進后的必應(yīng)上線,用戶數(shù)量增加和廣告收入帶來的好處已經(jīng)超過了成本。胡德表示,“對我們來說,即使以我們正在討論的服務(wù)成本計算,毛利率也是增加的。”

谷歌另一個競爭對手、搜索引擎You.com首席執(zhí)行官理查德·索切爾(Richard Socher)表示,添加人工智能聊天體驗以及圖表、視頻和其他生成技術(shù)應(yīng)用程序?qū)⒃黾?0%到50%的運營費用。但他說,“隨著時間的推移,技術(shù)會變得越來越便宜。”

一位接近谷歌的消息人士提醒說,現(xiàn)在確定聊天機器人的具體成本還為時過早,因為運行效率和使用情況會因為所涉及的技術(shù)有很大差異,而且搜索產(chǎn)品早就用人工智能提供技術(shù)支持。

埃森哲首席技術(shù)官保羅·多爾蒂(Paul Daugherty)說,盡管如此,擁有幾十億用戶的搜索巨頭之所以沒有立即推出人工智能聊天機器人,考慮成本是兩個主要原因之一。

他說:“一是準確性,二是你必須以正確的方式擴大規(guī)模?!?/p>

多年來,Alphabet和其他公司的研究人員一直在研究如何以更低成本訓(xùn)練和運行大型語言模型。

更大模型通常需要更多的芯片進行推理,因此運行成本更高。能讓消費者趨之若鶩的人工智能背后模型規(guī)模相當(dāng)龐大,比如說ChatGPT背后的模型就有1750億個參數(shù),每次運行的成本也會隨用戶查詢的長度而不斷變化。

一位資深科技高管表示,要讓幾百萬消費者使用這種人工智能,目前成本仍然過高。這位不愿透露姓名的高管表示:“這些模型非常昂貴,因此下一階段的進步將降低訓(xùn)練這些模型和推理的成本,這樣就可以在每個應(yīng)用程序中使用它。”

一位知情人士說,目前OpenAI的計算機科學(xué)家已經(jīng)想出如何通過復(fù)雜代碼來優(yōu)化推理成本,從而提高芯片運行效率。

一個長期存在的問題是,如何在不影響準確性的情況下,將人工智能模型中的參數(shù)量減少10倍甚至100倍。

“如何最有效地剔除(參數(shù)),仍然是一個懸而未決的問題,”曾負責(zé)英特爾人工智能芯片項目的納文·拉奧(Naveen Rao)說。

與此同時,一些公司考慮付費使用人工智能搜索,比如OpenAI的升級版ChatGPT服務(wù)每月收取20美元的訂閱費用。技術(shù)專家還表示,一種變通方法是將更小的人工智能模型應(yīng)用于更簡單的任務(wù),Alphabet正在探索這一方法。

Alphabet本月表示,“較小版”的LaMDA人工智能模型將為聊天機器人巴德提供動力,“所需的計算能力大大降低,使我們能夠擴展到更多用戶?!?/p>

在上周一次會議上,當(dāng)被問及ChatGPT和巴德等聊天機器人時,漢尼斯表示,更有針對性的模型而不是無所不能的系統(tǒng)才有助于“降低成本”。(辰辰)






聲明:文章來源于網(wǎng)絡(luò)轉(zhuǎn)載,是作者獨立觀點,不代表浙北數(shù)據(jù)立場
如有不合適或侵權(quán)等問題請及時聯(lián)絡(luò)我們0572-2100075,會第一時間刪除,保障作者權(quán)益
?

微信公眾號