2022年11月30日,美国OpenAI研发的聊天机器人程序ChatGPT正式发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。如此“智能”,在全世界范围内引起了极大的反应。
然而画风在4个月后有了变化,今年3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,已就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,并暂时限制OpenAI处理意大利用户数据。
这只是ChatGPT被禁用的开始……
01
为何禁用
5月份根据《华尔街日报》的报道,苹果因数据安全问题禁止员工使用ChatGPT等AI工具。
无独有偶,三星也被“坑了”。有一名员工,在进行软件测试的时候,把出问题的代码发给 ChatGPT,请教解决办法。这个操作让三星的一部分源代码,变成了 ChatGPT 的学习资料。估计三星自己都没想到还能这样泄密。甚至这样的员工,三星有不止一个。更严重的是三星大概率还没有办法追回或者彻底删除这些机密数据。它们已经被储存在 OpenAI 的服务器里,被训练到了 AI 的算法中。这类模型很难删除个人信息的所有痕迹,追踪溯源的难度更大。
除了三星,亚马逊、微软之前也出现过 ChatGPT 泄密的问题。
OpenAI的创始人之一马斯克曾在社交媒体平台上称赞ChatGPT:“It's a new world. Goodbye homework!”
1月初,纽约市教育部宣布禁止学生在其学校的设备和网络上使用ChatGPT,以预防学生作弊的行为。
同时在欧洲,巴黎政治学院(Sciences Po)率先行动禁止各校区全体学生及教职工利用ChatGPT完成教学任务。
在澳大利亚,新南威尔士州、昆士兰州、西澳洲和塔斯马尼亚州等多个州已宣布禁止在校内使用ChatGPT。
在是否禁用ChatGPT这一问题上,学生们的观点相对一致:72%的大学生认为应该在学校网络中禁止ChatGPT。
ChatGPT可能会导致学生实际上并不是在学习材料,而是依靠机器为他们做工作。这会导致批判性思维和分析能力的进一步贬值。
整个人工智能领域的发展都会因此种种而产生深远的影响。被禁事件还表明,在人工智能的发展过程中,有必要建立一个可信赖和透明的机制,以便监管和解决人工智能可能带来的问题。这样,就可以避免ChatGPT这种事件再次发生。
对此,中国人民大学未来法治研究院执行院长张吉豫说道,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。
02
水能载舟,亦能覆舟
ChatGPT的成功其实并非偶然——继去年Midjourney(AI绘图工具)火爆出圈后,Stability.AI、Runway、Jasper.AI等AI生成内容工具开发商,也相继得到资本的青睐,并带火了市场对于AIGC的投资热情。归根结底,ChatGPT的成功是技术发展积累和突变的结果,特别是底层技术。
红的发紫的ChatGPT技术仍在突破,市场是稳定的,它的出现也是拉动了部分细分市场的成长。瑞银集团在今年2月1日发布的一份关于ChatGPT的报告中表明,到今年1月末,也就是ChatGPT推出仅两个月后,月活已破亿大关,并称这是互联网领域发展20年来,增长最快的消费类应用。
但它在拉动增长的同时,风险也在悄然变大。
成本高,会砸自己的脚?
业内人士说过,ChatGPT并不是普通创业者的盛宴。因为投资人在投资ChatG-PT相关企业时,首先关注创始人是否能撑起此项目,一个通用型AI,涉及大量算力、资金,还涉及极强的人脉资源。在国内环境下,需要关注与场景结合,找到客户愿意“买单”的方向。
行业媒体 The Information 报道,OpenAI 去年在开发 ChatGPT 时损失了约 5.4 亿美元,并表示需要 1000 亿美元才能实现其雄心壮志。“我们将成为硅谷历史上资本最密集的初创公司,”OpenAI 的创始人Sam Altman最近在一个座谈中说。
当微软向 OpenAI 投入数十亿美元的投资时,当被问及其 AI 冒险将花费多少时,该公司保证会密切关注其底线。人工智能计算对算力要求非常不一样,一些分析指出,如果Google要把现阶段的搜索业务背后的引擎全部换成ChatGPT得话需要400万张显卡,基础设施投资要1000亿美金。道理很简单,以前大家做搜索引擎是5000万参数的小模型,如今哪怕不是1500亿的参数,哪怕是几十亿参数,和之前相比已经是上百倍数量的模型优化提升,因此需要更大的算力。这就意味着更多的投入。
根据研究公司SemiAnalysis等的数据,除前期数以亿计的GPU等设备投入,ChatGPT维护成本高得惊人,维护OpenAI的ChatGPT等对话式人工智能引擎每天的开销高达70万美元。更大的参数通常意味着人工智能的能力更强,但也会推高成本。换句话说,ChatGPT是“大力出奇迹”的产物,是芯片、显卡、AI、数据库等多项技术发展至高阶,持续大量烧钱的产物。
近期,来自十二个国内外研究机构共同发表的一篇关于智能计算的论文中指出,AI模型所需算力每100天就要翻一倍,远超摩尔定律(集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍),也就是说,预计在未来五年内将增加超过100万倍。随着传统摩尔定律的失效,要跟上如此快速增长的计算能力要求,的确是一件很有挑战性的事。
另外,尽管ChatGPT推出付费订阅版进入商业化阶段,但AIGC的商业化之路尚处于摸索阶段,目前仍以B端为主。浙商证券研报指出,B端变现路径更为多元、成熟,广告和营销等行业均有可想见的应用情景,付费的可能性和水平相对更高。
这个成本有谁能承担的起呢?现在面临“被禁”,这块大石头会砸到谁的脚呢?
风险承担
人工智能大模型领域的全球竞争已趋白热化,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。
5 月 22 日消息,据外媒报道,由 OpenAI 训练的人工智能聊天机器人 ChatGPT 掀起的生成式人工智能研发及应用的浪潮,也增加了对高性能 GPU、高带宽存储器等的需求。作为全球高性能 GPU 主要供应商的英伟达,也被认为是人工智能研发及应用浪潮的重要受益厂商。
而相关媒体也援引市场消息人士的透露报道称,英伟达 A100 和 H100 这两款针对数据中心的高性能 GPU 的订单在增加,他们也增加了在台积电的投片量。
在报道中,相关媒体提到,英伟达 H100 GPU 采用的是台积电 4nm 制程工艺,A100 则是 7nm 制程工艺,英伟达在台积电增加的投片量,也将填补联发科削减订单后相关制程工艺的产能空缺。
英伟达的高性能 GPU,在 ChatGPT 训练和应用中普遍使用。外媒在此前的报道中披露,OpenAI 在训练 ChatGPT 时,就使用了 10000 个英伟达的 GPU,而在 ChatGPT 推出之后为了满足服务器的需求,OpenAI 在 2 月底就已使用了约 2.5 万个英伟达的 GPU。
人工智能应用对高性能 GPU 的需求增加,也推升了英伟达的业绩及股价,CEO 黄仁勋的身家也大幅增加。上周就有外媒在报道中称,在人工智能应用需求增加的推动下,黄仁勋的身家在今年已增加至 273 亿美元,接近翻番。
没有只有收益的投资,现在ChatGPT很多地方被禁,英伟达和接受英伟达订单的台积电势必是会受到影响的。这样的大厂面临风险可能是船大不怕浪花,但是如果是刚刚成立或者专注于做AI 芯片的初创企业,怕是无法安稳。
03落后就要挨打
有人说,既得利益者要靠打压新技术(ChatGPT)来保持自己的优势。但终究,落后就要挨打。
之前马斯克联合千名科学家写公开信呼吁暂停GPT4以上版本的开发,信中写道:“当代AI系统正在成为通用任务的人类竞争对手,我们必须问自己:我们应该让机器用宣传和虚假信息充斥我们的信息渠道吗?我们应该将所有工作自动化消除吗,包括那些有意义的工作?我们应该开发非人类的思维,这些思维最终可能超过、取代我们吗?我们应该冒险失去对我们文明的控制吗?在我们确信强大的人工智能系统的效果将是积极的,风险是可控的之后,才应该开发这些系统。”
话虽这么说,但马斯克转眼就投入巨资购入万块GPU,全力投入GPT的开发,包括谷歌、百度、阿里等一大批业界知名企业也纷纷投入AI领域的创业热潮中。毕竟在全球人工智能竞赛升温和诱人发展机遇的当下,对大型科技公司来说,更实际的是如何在这波技术浪潮中保持核心竞争力,来巩固自己的优势地位。
审核编辑 :李倩
-
聊天机器人
+关注
关注
0文章
331浏览量
12293 -
自然语言处理
+关注
关注
1文章
611浏览量
13503 -
ChatGPT
+关注
关注
29文章
1548浏览量
7466
原文标题:ChatGPT很快迎来了“禁用”
文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论