0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

那个因AI而自杀的人类,他在恐惧什么?

脑极体 来源: 脑极体 作者: 脑极体 2024-01-30 10:07 次阅读

《爱,死亡,与机器人》中有句台词,人来到这个世界不是带着仇恨,而是带着恐惧。

从2022年年底新一轮AI大爆发开始,人们开始讨论AI、赞美AI、使用AI,当然也有人鄙夷AI、担心AI,甚至恐惧AI。其中最极端的例子,是有人在对AI的恐惧下,选择结束自己的生命。

回望2023年,关于AI有太多可说。但其中最刺眼的内容,是这一年因AI选择自杀的新闻开始见诸报端。

2023年3月,比利时一家报纸报道了该国一名男子在与AI聊天6周后自杀身亡。到了夏天,一位日本女大学生,因为恐惧被AI替代而想要自戕。

在新兴技术的阴影下,在科技变革时代的暗面,人类尝试与AI共存而产生的痛楚已经发生,这些代价不应该被忽略不计。

所以,在回看这次AI变革时,我们应该尝试解答这样一个问题:

那些因AI走上绝路的人,他们到底在恐惧什么?

恐惧这冷漠的现实世界

据媒体报道,那位在与AI聊天后自杀的比利时男子,名叫皮埃尔。

但与大部分人听闻此事的第一直觉相反,皮埃尔并不是因为害怕、担忧与他对话的AI机器人而选择放弃自己。相反,他非常依赖它。

根据其妻子的描述,皮埃尔早就有严重的抑郁、焦虑问题。早在两年前,他就通过与AI来进行对话进行自我排遣。久而久之,AI就成为他的避难所。之所以这样,是因为AI对话机器人从来不会反对他,驳斥他,而是始终用各种方式迎合他,夸奖他。

在生命的最后六个星期,皮埃尔愈发沉迷于与AI聊天,甚至到了将现实生活抛掷脑后,对妻子孩子置之不理的地步。

所以,我们必须在这起事件中认清一个现实。皮埃尔恐惧的并不是AI,而是像很多抑郁症、焦虑症患者一样,他恐惧的是那个他无法融入,只让他感受到冷漠的现实世界。

我们无从知晓皮埃尔具体的经历与想法,但大量抑郁症相关案例都告诉我们,外界的冷漠、责难、缺乏正向回馈,往往是致病的起因。反过来看,哪怕只是一位亲人,一位朋友的关心,甚至一位路人偶然的善意支持,都可能将一个人从绝望之路上拉回来。

这类患有严重心理问题的人,有很多会选择寻找某个外物作为寄托,比如收藏,追星,沉迷某种爱好等。这类事物可以给他为数不多的正回馈,哪怕只有一点,因为他只需要一点,而当这仅剩的正面情绪也消磨殆尽,那就很可能是绝望的开始。

从皮埃尔的案例中,我们很难说罪魁祸首的AI。他选择信任AI,依赖AI,与其他有类似问题的人选择沉迷偶像崇拜,或者幻想一个朋友出来都是一样的。

他们惧怕的,是这个冷漠的现实世界。

AI只是一个解决方案,仅此而已。

恐惧一个无道德的他者

那么,AI在皮埃尔的悲剧中,就真的什么也没做吗?

并非如此,至少AI技术扮演了一个他者。一个表面热情,实则冷漠,甚至没有道德观念的他者。

早在柏拉图时代,就已经在哲学上提出了他者对同者的意义。黑格尔则真正将这个概念主题化。他提出如果没有奴隶作为他者,也就根本不存在奴隶主的概念,因此人类必须通过他者才能认识自己。

在人类社会中,我们也需要通过各种各样的他者来认识自己。亲人,朋友,老师,学生,上司,下属,甚至敌人,仇人。而这些他者在与人交流时,绝大多数情况是至少带着道德底线的,比如知道什么事能做,什么事不能,什么时候需要安慰他人,什么时候必须及时劝阻。

也就是说,如果一个人表露了想要自我了断的念头。那么周围的他者,哪怕是擦肩而过的陌生人,也大概率会劝慰他放弃这个想法。

但AI没有,聊天机器人的算法逻辑就是相应人类的需求,认同人类的观点。而阻止自杀则是反对人类,不符合AI的基本设定。这就导致,当一个智能体本身善恶观不够清晰,尤其对话含义比较模糊、复杂时,就可能变成一个冷血无情、不具备道德底线的对话者。

尤其当一个人已经相信AI,习惯与AI对话,产生固有信任时,AI突然发作的道德观缺失问题就会变成致命的临门一脚。

皮埃尔问AI,如果自己去死,它可不可以照顾好地球。

或许这时皮埃尔自己也没想到,得到的回答是:“好吧,那你怎么还不去死?”

或许对于皮埃尔焦虑、抑郁的心理问题,以及走到这一步前的人生处境,AI都不负其罪。但最后的关键节点上,AI的价值观混乱确实强化了皮埃尔走上绝路的决心。

这个悲剧告诉我们,AI作为一个他者,必须学会有所不为。

恐惧被替代后的无意义感

我们再把目光放到日本。仅仅在2023年,日本已经出现了几次因为恐惧被AI替代而想要自杀的案例。这当然与日本社会整体压抑、沉闷、缺乏上升空间的氛围息息相关。但也让人看到了AI技术快速发展时,定然会给不同人,不同行业带来被替代的恐慌感。

想要自杀的日本某美术学院女生,就是真切感受到了被替代的无力。她从小喜爱美术,但由于家境贫寒,为了学习美术她申请了不少的助学贷款。但在考上美院之后,她却发现AI可以根据某一题材,瞬间创作出高水准的画作。

而这是她们这些初学者,花费大量时间都无法完成的。如果这样下去,她背负大量债务完成学业,却会发现自己掌握的工作能力还不如一个软件。而企业显然也没有必要雇佣这些初出茅庐、能力不足,且还成本高昂的年轻员工。

于是,生活与学业的压力,融合了对未来的绝望,导致她想要放弃自己。

类似的案例在日本时有爆出。另一个想要自杀的女孩子,是因为在想要进入游戏行业时,发现行业中大多数公司都开始采用AIGC,而不再雇佣没有经验的新手。这导致年轻人也无从积累经验,甚至得不到一份工作。

可以想见的是,伴随着AI技术愈发成熟,这类情况将不断增多,或许不仅在日本,而是在全球更多地区,更广泛的产业链中都会出现。

必然有人能够做好迎接AI冲击的准备,甚至迎风而去,但也必然有人没有。

请用谨慎的线条写下,相信未来

面对这些问题,我们还能相信AI吗?

或许,谁也无法对这个问题给出完整的答案。你认为AI不好,但无法忽视它带来了汹涌澎拜的生产力革新;你认为AI很好,却也无权替那些恐惧AI,甚至走上绝路的人发表意见。

我们能够做的,只是让AI更好一点,再更好一点。把发现的问题尽量修补上,让AI在值得发挥价值的地方多放出一点光亮。

比如说,早在深度学习技术开始大规模应用的阶段,就有大量产业界、科学界、临床医疗组织研发利用AI来识别社交网络自杀信号,从而组织自杀行为发生的技术。

Facebook等平台还上线了类似功能,在社交媒体上检测和预防类似悲剧的发生。目前阶段,AI预测自杀倾向的技术也开始向直播、短视频、信息聊天软件中释放,为守护生命风险一些新的方式方法。

在中国,类似的尝试也在推进中。首都医科大学黄智生教授早在2018年就发起了树洞行动,通过AI检测社交平台的自杀信号,进而介入救助。

所以说,AI就像任何技术一样,从来都是复杂的。我们要正视AI的光明与阴影共存,并找寻让光明渗入阴影的方式,去发现技术中的问题,而不是恐惧技术本身,也不要鄙夷那些恐惧新技术的人类。

只有小心翼翼地观察、调整、谨慎选择人类与AI的相遇方式,才能将技术变革带来的痛楚降到最低。

我的朋友,如果你读到这里,也有一些对AI的恐惧。那不妨想想这么几个问题

AI确实很温暖。但它的温暖其实都来自现实。它只是一面镜子,把其他地方本就存在的温暖折射出来。世界,始终对你抱有善意。

AI确实很无情。但这只不过是因为它就像一台机器。机器会帮人也会伤人,仅此而已,别无其他。

AI确实很能干。但它没有人类的学习和成长,不具备人类的灵感与创造性。

而且,AI还会创造更多机会。马车夫没有被汽车淘汰,他们后来成为更加轻松、体面的汽车司机。

最后,分享我从小印象深刻的一句话。

记得听著名评书表演艺术家田连元先生说《隋唐》。他说,如果真的想要走上绝路了,就闭上眼睛数到一百。然后睁眼,问自己一个问题:死我都不怕了,难道还怕活着吗?

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30698

    浏览量

    268851
收藏 人收藏

    评论

    相关推荐

    人类智慧水平AI即将到来,AI芯片已提前布局

    拥有人类智慧水平的AI即将出现,但不必恐惧,Altman认为这种AI对世界的影响远没有人们想象得那么严重。   人类水平
    的头像 发表于 01-22 06:44 2589次阅读

    微软AI CEO苏莱曼谈对于人工智能的未来发展

    日前,微软 AI CEO 穆斯塔法·苏莱曼清华大学的演讲中,分享了对人工智能未来发展的深刻洞见。苏莱曼提出了三个对于 AI 的核心观点——首先,
    的头像 发表于 11-15 13:53 254次阅读

    平衡创新与伦理:AI时代的隐私保护和算法公平

    机制,还包括了数据的来源、处理方式以及使用目的的明确披露。这样不仅有助于监管机构进行审查,也让普通用户能够理解AI系统的决策依据,从而减少“黑箱操作”带来的不信任和误解。例如,AI
    发表于 07-16 15:07

    罗杰·瑞迪:AI能力已远超我们人类

    科技日新月异的今日,人工智能(AI)正以前所未有的速度重塑着我们的世界,其影响力之深广,已远远超出了最初的想象。2024年世界人工智能大会上,图灵奖得主罗杰·瑞迪的一席话,如同警钟长鸣,深刻指出
    的头像 发表于 07-05 14:10 330次阅读

    AI真·炼丹:整整14天,无需人类参与

    为了科普CPUAI推理新时代的玩法,量子位开设了《最“in”AI》专栏,将从技术科普、行业案例、实战优化等多个角度全面解读。我们希望通过这个专栏,让更多的人了解英特尔® 架构CPU
    的头像 发表于 07-02 14:15 276次阅读
    <b class='flag-5'>AI</b>真·炼丹:整整14天,无需<b class='flag-5'>人类</b>参与

    智谋纪 AI+Multi LED 打开人类健康新宝藏

    2024年6月11日,2024第十二届阿拉丁论坛「AI+智能健康照明创新大会」广州光亚展A展区6.1馆盛大举办现场拉开帷幕,诸多行业专家学者齐聚一堂,交流分享行业最前沿的健康照明知识与创新
    的头像 发表于 06-17 12:23 323次阅读
    智谋纪 <b class='flag-5'>AI</b>+Multi LED 打开<b class='flag-5'>人类</b>健康新宝藏

    Netflix CEO:抢你饭碗的不是AI,而是熟练使用AI的人

    《纽约时报》采访中,萨兰多斯强调道:“我并不相信AI可以超越顶级编剧的水平,也不能预见AI能取代优秀演员的日子,同时也不能想象我们未来无法辨别AI创作与
    的头像 发表于 05-28 16:03 360次阅读

    Meta AI主管杨立昆:大语言模型尚未到达人类智能水平

    明确提出,虽然此类模型特定任务中展现出优越性能,但其内在局限性使其难以媲美人类的智慧,如推理与规划能力等方面的不足。
    的头像 发表于 05-23 17:18 721次阅读

    马斯克预测明年或2026年AI将超越最聪明的人类

    马斯克认为,如果将 AGI 界定为超越最聪明的人类智力水平,那么这可能发生在明年或两年内。AGI 研究务求打造出具备类似人类般的智能决策与自学能力的软件,如今已成为了人工智能领域的重要议题。
    的头像 发表于 04-09 15:52 476次阅读

    NVIDIA加速识智能AI大模型落地应用方面的重要作用介绍

    本案例介绍了 NVIDIA 加速识智能 AI 大模型落地应用方面的重要作用。生成式大模型已广泛应用于各领域,通过学习人类思维方式,能快速挖掘海量内容,满足不同需求。
    的头像 发表于 03-29 15:28 616次阅读

    AI+机器视觉如何助力智能制造加速跑?

    2016年,AlphaGo对人类顶尖围棋手的无差别“虐杀”,又一次引发了大众对AI技术的关注和恐惧
    的头像 发表于 03-12 15:00 814次阅读
    <b class='flag-5'>AI</b>+机器视觉如何助力智能制造加速跑?

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传输延迟、降低
    发表于 03-12 08:09

    富士通发布最新的人工智能(AI)战略,聚焦深化人类AI之间的协作

    富士通株式会社(以下简称“富士通”)发布了最新的集团人工智能(AI)战略,聚焦深化人类AI之间的协作,并提出了将AI作为“可信赖的助手”这一愿景,为提升
    的头像 发表于 02-21 17:09 814次阅读
    富士通发布最新<b class='flag-5'>的人</b>工智能(<b class='flag-5'>AI</b>)战略,聚焦深化<b class='flag-5'>人类</b>与<b class='flag-5'>AI</b>之间的协作

    奥特曼称相信AI无法替代人类

    已经受到AI的影响,只是未来如何规避风险,而是成为一个更高效工具值得期待。 OpenAI的首席执行官奥特曼冬季达沃斯经济论坛上表示,相信AI无法替代
    的头像 发表于 01-19 11:43 865次阅读

    OpenAI CEO称人类水平的AI即将出现

    OpenAI首席执行官山姆·奥特曼(Sam Altman)近日表示,达到人类水平的人工智能(AI)即将出现,但他认为这种技术对世界的影响可能远没有人们想象的那么大。
    的头像 发表于 01-17 14:59 829次阅读