采用人工智能的社交媒体监控可能会让某些人失去工作、影响大学录取、租赁房屋等等——而且人们不会知道它是怎么发生的。
AirBnB公司希望在客户租用其别墅之前了解其是否具有“马基雅维利(狡诈)”个性。
根据其客户在Facebook、Twitter和Instagram上发布的信息,AirBnB公司可能会用人工智能软件来判断租赁别墅的客户是否值得信任。
他们将使人工智能系统失去社交性,运行算法并获得结果。对于处于此过程另一端的人们来说,该过程将没有透明度,没有任何信息,也没有上诉程序。
该公司拥有一项技术专利,该技术旨在通过分析潜在访客的社交媒体活动来确定他们是否是可能损害房东的高风险客户,从而对客户的“个性”进行评分。
他们技术的最终产品是为AirBnB每个客户分配“可信度评分”。据报道,这不仅将基于社交媒体活动,而且还将基于在线发现的其他数据,其中包括博客文章和法律记录。
这项技术是由AirBnB公司三年前收购的Trooliy公司开发的。Trooly公司创建了一个基于人工智能的工具,旨在“预测可信任的关系和互动”,并将社交媒体作为一个数据源。
该软件根据软件识别出的感知“个性特征”来建立分数,包括一些可能预测到的特质(例如认真、开放、外向、随和,还有一些怪异的特质——例如“自恋”和“狡诈”(有趣的是,该软件还寻找客户涉及民事诉讼的行为,这表明他们可能会基于对客户可能提起诉讼行为进行预测)。
AirBnB公司尚未透露他们是否使用该软件。
如果人们对此消息感到惊讶,震惊或不满意,则就像大多数人一样,他们不知道使用适用于社交媒体的人工智能来判断人们(客户、公民、员工和学生)的巨大且快速增长的做法。
AirBnB公司并不是扫描社交媒体来判断个性或预测行为的唯一组织。其他机构和组织包括美国国土安全部、美国中央情报局、雇主、学区、警察局、保险公司等。
有人估计,一半以上的大学招生员使用基于人工智能的社会监测工具作为申请人甄选过程的一部分。
人力资源部门和招聘经理在招聘前也越来越多地使用人工智能社交媒体监控。美国政府机构(特别是雇用需要安全检查人员的政府机构)也依靠社交媒体监控来检查不信任的员工。
而且,正如在这个领域所报告的那样,当人们进入美国国境时,美国海关和边境保护局搜索的智能手机数量每年都在急剧增长。这些搜索包括社交媒体帐户,以后可以使用人工智能对其进行监视和分析。
不仅越来越多的学校监控学生的社交媒体活动,一些州也开始依法要求这样做。基于人工智能的社交媒体监控是一种潮流。各种各样的组织都在积极参与。
基于人工智能的社交媒体监控不是那么智能
多年来,各种组织一直在质疑社交媒体监控。但是最近基于人工智能的监视工具应运而生,并创建了新的行业和专业。
这些工具寻找的是诸如智力、社会责任、经济责任和遵纪守法和负责任行为等人格特征。问题不是人工智能是否适用于数据收集。当然可以。问题在于社交媒体是否揭示了有关用户的真相。也有一些专家在质疑其数据的质量。
例如,扫描某人的Instagram帐户可能“表明”他非常富有,曾经环游世界,并享用香槟和鱼子酱。事实可能是他已经破产,面临的经济压力很大,他们在酒店和餐厅用餐时以社交方式进行炫耀,他们的自拍纯粹是为了建立声誉而精心伪造的照片。有些人利用社交工具刻意塑造自己的高大形象。
Twitter帐户可能会表明用户是一个正直、有建设性和富有成效的社会成员,但如果第二个匿名帐户被社交媒体监控系统所知,则可能会显示出这个人可能是一个反社会的不法分子。人们有多个社交媒体帐户可以反映其个性的不同方面。其中一些是匿名的。
而且,某人的Facebook帐户可能充斥着一些冷幽默信息,其内容低俗并且夸张,监控工具可能会得出这样的结论,显示出一种不可信任的性格,而实际上问题是人工智能并没有幽默感或讽刺意味。而人工智能工具的创造者本身可能对个性没有真正的理解。
例如,在网上的不良行为可能会降低对某人的信任度得分,因为人们认为这表明缺乏道德。但最近的研究表明情况恰恰相反,通常来说,这样的人可能更值得信任,也更聪明、更诚实、更有能力、更专业。那么开发人工智能软件的开发人员知道或关心人类个性的微妙性和复杂性吗?
如今,一些人是许多社交媒体网站的持续用户。其他人从不使用社交媒体。大多数都介于两者之间。
当然也存在代际鸿沟。从统计上看,年轻人不太可能公开发布信息,他们更喜欢私人信息和小组社交。基于人工智能的社交媒体监控从根本上说是年龄歧视吗?
女人比男人更有可能在社交媒体上发布个人信息(关于自己的信息),而男人比女人更可能发布非个人信息。发表有关个人事务的信息可能更能揭示人格。人工智能是以社交媒体监控为基础的性别歧视吗?
而采用这种可能造成极端后果的监视技术之前,有人问过这些问题吗?
像AirBnB这样的公司正试图解决一个真正的问题。就AirBnB而言,它们本质上是一项配对服务,其中一个用户的“产品”是另一个用户。这是质量保证的问题。它们如何最大程度地减少对用户的伤害?
需要注意的是:在过去40年中,科技的作用总是被夸大。而人工智能现在成为这一新科技。业界人士担心的是像AirBnB这样的公司会出现问题,他们认为解决问题的办法就是让人工智能魔法神奇地解决问题。他们会使人工智能系统脱离社交网络,运行算法,然后得到结果。人工智能系统会告诉他们哪些人不可以进入学校,哪些人不能雇佣,哪些人可以剥夺他们的安全许可,哪些人禁止进入AirBnB。
人工智能拒绝了合适的应聘者吗?怎么会有人知道?一些被人工智能视为“值得信赖”的人员是不是通过某种方式欺骗这个系统而获得了这种区别?怎么会有人知道?
如果人们在互联网上浏览有关社交媒体监控的信息,就会发现很多关于“在网上发布的内容”的建议,这听起来很合理,直到人们真正思考这些建议的含义。他们说,如果某人是一个真正应该被解雇的人,而不是根据其社交媒体活动被学校录用或拒绝的人,那么真的需要变得聪明一些,模仿或假冒一个不令人反感的人员的社交媒体活动。
随着关于社交媒体监控范围的知识的传播,限制人们在社交网站上的一些不良行为(向人工智能受众提供假数据,以便机器判断是否值得信赖)将变得司空见惯。
从政府机构到企业,再到硅谷的一些科技公司,许多类型的组织都在紧跟基于人工智能的社交媒体监控的发展潮流。专门提供这些工具的数十家公司正在崛起,这种做法越来越普遍。
而当公众意识到这一普遍做法的现实时,他们的反应必然是改变社交媒体的行为,采用正确方法来维持自己的“可信分数”,黑客的攻击使整个事情变得毫无意义和过时。
现在是开始关注基于人工智能的社交媒体监控的时候
人们可以从扫描社交网络中获得一些启发,即使没有人工智能技术也是如此。知识渊博、热衷科技的公众通常对“监视资本主义”的做法持谨慎态度,并且轻视个人数据收集、网络活动跟踪,以及广泛使用各种网站和应用程序的随机用户的联系数据库的做法,利用这些行为,企业可以未经用户了解并许可,即可访问其认识的每个人的个人信息。
同时,人们很少听到关于基于人工智能的社交媒体监控的在线对话。然而,潜在的“危害”是巨大的,导致一些人失业、被学校拒绝录取,或者使保险费率提高等。
在这里没有“不值得信赖”的秘诀来欺骗人工智能系统并获得机器信任。而且基于人工智能的社交媒体监视来确定“可信赖性”本身就是不可信赖的。
责任编辑:ct
评论
查看更多