当前版: 08版 上一版  下一版
人工智能系统与人类就人工智能的危险性展开辩论

人类最后被机器人说服了

  新华社北京11月27日专电 英媒称,一个人工智能系统日前与人类就人工智能的危险性展开了辩论——它以微弱优势说服观众相信人工智能利大于弊。

  据英国《新科学家》周刊网站11月24日报道,由IBM公司开发的机器人——“辩论家”计划(Project Debater)——分别代表正方和反方进行了辩论,而每一方的团队都各有两名人类辩手。21日晚,这个人工智能平台在剑桥大学同学会以一名美国女性的声音向观众做了正反双方的开篇立论,其间使用了来自人类预先提交的1100多份意见中的观点。

  报道称,在代表正方——主张人工智能弊大于利——时,“辩论家”计划的开场白带有阴暗的讽刺意味。它说:“人工智能可以造成许多伤害。人工智能将无法作出一个在道德上正确的决定,因为只有人类才讲道德。”

  它还说:“人工智能公司在如何正确评估数据集和过滤掉偏见方面仍然极度缺乏专业知识。人工智能将采纳人类的偏见,并把这种偏见固化数十年时间。”

  报道指出,人工智能利用一款名为“众包演讲”(speech by crowd)的应用软件对人们在网上提交的论点进行分析,进而生成自己的论点。“辩论家”计划随后将人们提交的意见归入若干关键主题,并识别出冗余观点——即措辞不同的相同观点。

  报道称,该人工智能平台在辩论过程中能做到前后一致,但是也出现了少量纰漏。它有时会说车轱辘话,并且没有提供具体的例子来支持自己的论点。

  在代表反方——主张人工智能整体而言利大于弊——时,“辩论家”计划称,人工智能将在某些部门创造新的就业岗位,并“大大提升工作场所的效率”。

  但随后它又提出了一个与其观点背道而驰的观点:“人工智能能够照顾病人,机器人能够教导学童——那些领域也不再需要人类。”

  报道称,反方以微弱优势获胜,赢得了51.22%的观众票。

  报道称,“辩论家”计划去年首次与人类展开辩论,它在今年2月与冠军辩手哈里什·纳塔拉詹的一对一较量中失利。纳塔拉詹本次也作为反方三辩参加了在剑桥大学同学会的辩论。

  IBM公司计划利用“众包演讲”人工智能平台收集大量人群的反馈。例如,IBM工程师诺姆·斯洛尼姆说,政府可以利用它征求选民对政策的意见,企业也可以利用它征求员工的意见。

  他说:“这项技术有助于在决策者和将受决策影响的人之间建立有趣和有效的沟通渠道。”

 
     标题导航
人工智能系统与人类就人工智能的危险性展开辩论~~~
~~~负责贸易争端仲裁的上诉机构被釜底抽薪
~~~
~~~其同伙曾在达卡使馆区一家餐厅劫持并杀害20多人
~~~西班牙专家说或许与一个神经回路有关
~~~
~~~“黑五”来袭 超八成美国人将在本周末购物
9名美国公民本月初在墨西哥北部遭伏击丧生~~~
~~~
~~~
~~~
   第01版:一版要闻
   第02版:要闻
   第03版:综合
   第04版:评论
   第05版:全媒体
   第06版:斗门新闻
   第07版:中国
   第08版:国际
   第09版:综艺
   第10版:体坛
   第11版:车周刊
   第12版:楼周刊
人类最后被机器人说服了
美国就WTO运转提苛刻条件
俄罗斯向美国展示高超音速武器
孟加拉国判2016年恐袭凶手死刑
科学家可能已经找到酗酒原因
美国盟友有意分摊更多北约运行成本
降价这么多 不买白不买
美国欲认定墨贩毒集团为恐怖组织
越南接收冷藏运输车遇难者遗体
山场文明社区第二期回迁房抽签通知
横琴杧洲隧道工程海洋环境影响评价第二次公众参与公告