人工智能时代逐渐到来,新闻行业到底还能坚持多久?
2017年,科技可谓是快速发展的一年,人工智能的快速发展,让许多产品都进行了变革。电视坐上了人工智能列车,智能语音的产生,让很多人逐渐解决了双手;音响坐上了人工智能列车,购物,听歌,即说即停,更加智慧。
随着时间的流逝,2017年也即将结尾,崭新的2018年,人工智能必然也会成为新气象,在新的一年,引领大家走向更为智慧的一年。
而就在最近,国家通讯社新华社在成都发布的中国第一个媒体人工智能平台——“媒体大脑”成为了大家关注的焦点,引起中外媒体强烈期待。“媒体大脑”平台,主在向海内外媒体提供服务,共同探索大数据时代媒介形态和传播方式的未来。
人工智能已经超前发展?
据了解,此次发布的“媒体大脑”,提供基于云计算、物联网、大数据、人工智能(AI)等技术的八大功能,覆盖报道线索、策划、采访、生产、分发、反馈等全新闻链路。而这八大功能包括:2410(智能媒体生产平台)、新闻分发、采蜜、版权监测、人脸核查、用户画像、智能会话、语音合成。国内的各媒体机构,均可在认证后使用“媒体大脑”的各项功能和产品。
同时,新华社还发布了首条MGC(机器生产内容)的视频新闻,该视频新闻时长2分8秒,由“媒体大脑”中的“2410(智能媒体生产平台)”系统制作,计算耗时只有10.3秒。
说到这首条MGC视频新闻,其主要是运用人工智能技术,由机器智能生产新闻。生产过程分为:首先通过摄像头、传感器、无人机等方式获取新的视频、数据信息,然后经由图像识别、视频识别等技术让机器进行内容理解和新闻价值判断,依托于大数据的“媒体大脑”将新理解的内容与已有数据进行关联,对语义进行检索和重排以智能生产新闻稿件。
而且,人工智能还将基于文字稿件和采集的多媒体素材,经过视频编辑、语音合成、数据可视化等一系列过程,最终便会生成一条富媒体新闻。
新华社副社长刘思扬强调,“媒体大脑”和MGC新闻的出现,不是要取代记者和编辑,而是在更高层面上,把人的延伸与物的延伸连接起来,更快、更准、更智能地获得新闻线索和新闻素材,帮助媒体提高生产力。
新闻行业受到冲击?
“媒体大脑”一经发布,就引起了大家前所未有的关注,人工智能的全面布局,媒体智能生产平台的产生,新闻行业真的要受到大浪洗刷了吗?
其实客观的讲,人工智能的产生,的确会对很多行业,包括传统媒体,传统制造业等,度会产生一定的冲击,所以我们一定要严肃且理性的看待。
智能时代,的确会让我们的生活变得便捷起来,连工作也变得不再繁琐。但是一旦你的工作仅仅只是机械劳动,那么就要小心了,单纯地机械劳动性的工作,肯定是要被人工智能所取代的,包括新闻行业。就像新华社副社长所说,人工智能时代,不是要取代,而是帮助更多的产业提高生产力。所以,只有创造性劳动的工作,才能完全不被取代,不然,高速发展的时代,终有一天,你将被淘汰。
人工智能时代逐渐到来,我们的工作,生活都会变得无比的便捷与时尚。智能生活我们该如何对待?当然是不断的紧跟潮流,创造性的工作,才能在智能时代获得一席地位。毕竟,机器人与人类相比,缺乏更多的创造性。
枪能保家,也能犯罪,AI亦如是
我们在一片对18岁照片的花样赞美中,迎来了又一个新年。
最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。
但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。
今天我们来预测几个,很可能在2018年进入我们眼帘的「人工智能负能量」。
毕竟做好准备,是解决问题的前提条件。
一、人工智能伦理问题开始出现个案
2017年1月,在加利福尼亚州阿西洛马举行的BeneficialAl会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。
随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。
《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。
听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。
比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如AI诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI系统是否能打破规则,自行其是?
这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的「看脸定罪犯」研究。引发了媒体对于AI价值观的大量讨论。
在各个产业场景开始使用AI技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。
人类还从未真正讨论过这些。假如2018年人工智能的落地化足够快,伦理问题的苗头或许会临近。
二、难以根治的的算法歧视
记得2016年,微软推出过聊天机器人Tay,却因为用户教给它大量种族歧视和脏话,一天内就被暂时下线。这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己,那么假如它吸收的信息含有大量「不那么纯良」的东西呢?
2017年,算法歧视问题非但没有被解决,各种各样新的问题还应运而生。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签,显然有悖于女权主义精神;而把黑人识别为大猩猩,则点燃了AI种族歧视的话题关注度。
所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐两个地方感觉到。比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候,大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,然后再一刷新。好嘛,蜂拥而至的类似内容啊,你本来想看的兴趣内容和专业内容瞬时间化为乌有。甚至你怎么点我不关心不喜欢,平台还是给你推荐。这就是因为算法的归类方式给你贴上了标签。这种歧视感也蛮严重的,好像背后有个人奸笑着对你说:「承认吧,你就是这么低俗…」
这类问题的根源,是机器学习技术进行个性推荐,今天还必须建立在两个逻辑的基础上:以过去算将来,以群体算个体。算法会吸收以前有过的经验来给你特定的某些东西,但很有可能歧视信息就包含在机器吸收的经验里。
在个性推荐系统越来越多场景应用可能的今天,我们恐怕短期内还难以根治算法的歧视。
三、私人数据与机器
学习的矛盾日益凸显
人工智能和个人隐私,似乎从来都是一对天敌。
因为人工智能技术假如想要提供个性化、完全符合个人习惯的服务,那么就必然要学习和理解用户本身。而这其中,就涉及对用户私人数据的学习。
但出于隐私的考虑,以及对网络安全的不信任,大部分用户显然是不希望透露自己数据给机器的。
从而「鸡生蛋蛋生鸡」的矛盾就产生了。
近两年,用AI来读取用户个人数据这件事一直处在被压抑和不能提的状态。更早一点的时候,苹果和谷歌等大公司都推出过让AI读懂用户的产品,但很快就被舆论抨击给关停了。即使这样,谷歌去年推出的家用AI相机还是饱受诟病。
在2017年后半段,我们看到了AI芯片拉开了风云际会的争夺序幕。但是搭载AI芯片的硬件一定要有的放矢,有任务可以完成。于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务,势必会重新回到公共视野里。
其实从大趋势上看,把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。
在2018年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。
究竟怎么处理这个矛盾,也是挺让人头疼的。
四、真假越来越难分
就目前来看,希望AI能像人一样对话和理解,显然还是为时过早的一件事。但是让AI来造假,似乎已经问题不大了。
此前我们讨论过视频和直播换脸的可能,其实从整个技术进度来看,基于GAN的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI都已经能够得心应手的处理。
但这肯定不会是什么好事。在著名的Face2Face软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?
而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,大概我们可以很肯定的说:2018年用AI来伪造视频音频将更加天衣无缝。
这是AI对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:当我们看到的视频都可以完全造假的时候,这个世界还有什么可以相信呢?
假作真时真亦假,只能期望反AI造假的AI系统也尽快出现吧。
五、黑客攻击有更多花样
2017年年末,谷歌TensorFlow被惊人的爆出框架漏洞,虽然是被白帽子找到,没有造成危险,但这还是点醒了我们一点:AI并不安全。
至此,我们已经见识过了各种黑客攻击和AI技术结合的可能性:用AI来伪造文件信息实施攻击和诈骗;利用AI技术来提升黑客攻击效率;以AI系统为目标的攻击。随着AI和物联网体系的结合,未来物联网攻击中很可能也会加入AI的身影。
AI技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然AI同样给我们提供了各种保护互联网安全的方式。但无论如何,AI带给了黑客更多可能性是毫无疑问的。
2017年的网络安全世界并不平稳,各种各样的病毒和黑客肆虐不绝于耳。进入2018,我们很可能会在这个战场看到更激烈的搏杀。
结束语
就像任何一种技术革新一样,AI也同样在带来价值的同时创造了危险。而且凭借着识别和学习能力的特征,AI带来的负面影响说不定会比过往更大。
但是无论如何,技术就是这么一步步推进的。更好的风景总是伴随着更难走的路途。认识风险,并探索解决方案,或许才是人类与AI相处时更舒服的方式。
评论
查看更多