- 2023/5/6 9:59:42
- 类型:原创
- 来源:电脑报
- 报纸编辑:吴新
- 作者:
01
OpenAI去年亏损翻番
毫无疑问,大型人工智能(AI)语言模型是一项昂贵的业务。
据The Information消息,三位了解OpenAI财务状况的人士透露,该公司去年开发ChatGPT并从谷歌招聘关键员工,致使亏损大约翻了一番,达到5.4亿美元左右。这一此前未公布的数字反映出,在该公司开始出售聊天机器人的使用权限之前,其机器学习模型的训练成本高昂。
这家初创公司于2022年11月推出的AI聊天工具ChatGPT,可谓是最近的“当红明星”。不过在“当红”的背后,OpenAI在它身上投入了多少成本呢?
数据显示,OpenAI成立于2015年。2018年,该公司推出用于文本生成的自然语言处理(NLP)模型GPT-3,它的前作GPT-2曾被称为“最强NLP模型”。据科技媒体Venture Beat,GPT-3拥有1750亿参数,训练成本花费约1200万美元,是同类中参数数量最多、最昂贵的模型之一。2022年11月30日,OpenAI发布了爆火的ChatGPT。
02
还要筹资1000亿美元
目前,关于数据的所有权问题,正迅速成为AI热潮中一个激烈的新“战场”。例如,三星电子担心自己的专有数据会流入各类生成式AI的数据池,最近宣布禁止员工在公司设备上使用当下流行的AI工具,如ChatGPT、Bard和Bing。
虽然OpenAI花钱的速度很快,但其融资的速度也非常快。
今年1月,微软和OpenAI正式宣布,将以“多年、数十亿美元”的投资扩展他们的合作伙伴关系,利用微软Azure云计算服务提供的算力,以更快地实现AI的突破。据报道,微软将向OpenAI公司投资100亿美元,
在这之前,OpenAI在成立的七年多时间里总共收到了40亿美元的投资。从2019年开始,微软与OpenAI建立了紧密的战略合作关系,向OpenAI进行了三次投资。
据报道,OpenAI已于4月底完成了一笔103亿美元融资,估值达到270亿-290亿美元(约合人民币1900亿-2000亿元)。文件显示,参与本轮融资的风投公司包括老虎全球管理、红杉资本、加州 Andreessen Horowitz、纽约Thrive和K2 Global。
此外,OpenAI还一直在招聘更多的工程师和销售,并从苹果、谷歌等大公司“挖墙脚”,这也是一大笔开支。
OpenAI首席执行官Sam Altman曾私下建议,公司可能需要在未来几年尝试筹集高达1000亿美元的资金,用于开发足够先进的通用型AI工具,并以此提高公司的盈利能力。
Altman周三(5月3日)还表示,OpenAI将成为硅谷有史以来资本密集度最高的初创公司。
03
商业化落地太慢
考虑到AI的开发成本是如此之大,这就引发了一些问题,例如AI公司的收入能否覆盖成本,此外,其他初创公司是否能跟上OpenAI的步伐。
2020年,OpenAI在谷歌云上的支出至少达到了7500万美元,后来转向微软的Azure云。今年早些时候,它与微软达成了100亿美元的投资,微软将向OpenAI提供现金和Azure云的信用额度。
目前,OpenAI的收入规模相对于成本仍然相对较小。不过一些投资者还是认为,该公司的软件能够引领未来潮流,在未来某个事件能成为该公司的赚钱利器。
向企业客户提供服务不算新鲜事,从2022年11月面向C端用户推出ChatGPT聊天机器人后,OpenAI就开始向企业提供付费接入的产品。只不过,早期用户的热情遮掩了OpenAI toB的意图。事实上,类ChatGPT产品toB才是主流的商业模式,至少从小冰toC免费陪聊、toB可定制来看是这样。
事实上,在AI商业化方面,各科技巨头都在努力尝试。
目前微软已经推出的由 ChatGPT 提供技术支持的高级 Teams 产品,做的事有生成会议记录、记笔记、起草工作邮件等,旨在帮助员工解决大量重复、机械的文书工作。
而谷歌想做的搜索引擎,微软已经改造的必应bing,将ChatGPT整合为AI助手,帮助用户自动化筛选,获得更好更完整的答案。如果没有AI,用户自己在互联网数据之海中筛选并判断哪些信息有用,是很麻烦的。
尽管很多美国学校开始严禁学生使用ChatGPT做作业,但这项新技术还是可以在教学场景中发挥正向作用。根据Stud*.c*m的调查,有21%的老师开始用ChatGPT辅助教学,包括提供写作提示、制定课程计划、教授写作风格(生成范文)等。
04
压力巨大的模型成本
ChatGPT可以说是一个烧钱的游戏。
曾有用户在社交媒体上提问ChatGPT是否会永久免费,对此,Open AI首席执行官Sam Altman回应称:“我们将不得不在某个时间点,以某种方式将其商业化,因为运算成本令人瞠目结舌。”Sam Altman曾透露,ChatGPT平均每次的聊天成本为“个位数美分”。
小冰公司CEO李笛曾在接受媒体采访时透露,ChatGPT贵,是因为它追求极致交互的效果,用了最复杂的方法来实现它。当然大家现在不停在寻找各种等价替换的方法,成本会逐渐降低,所以它目前为止更多的是一个研究方面的突破,是一个实验室方面的突破。
事实上,ChatGPT运用的这类大模型训练成本非常高。相对训练来说,模型推理,也就是用户提交输入模型输出结果的过程,这一成本会更高。“据说ChatGPT在开放测试阶段每天要花掉200万美元的服务器费用,所以前段时间免费的公测也停止了,如何降低模型推理的消耗便成为目前的一个重要研究问题。”业内人士称。
尽管如此,众多机构仍看好ChatGPT及其AIGC的“钱”景,只是究竟有多少科技企业能一直玩这个“烧钱”的游戏呢?
更多关于 电脑报官网 的文章 |
Copyright © 2006-2021 电脑报官方网站 版权所有 渝ICP备10009040号-1