新闻中心最新政务本地社会评论深度湖北国内国际财经教育军事科技
怎样提升人工智能的“道德水平” 中国第八批赴南苏丹维和医疗队首次通过联合国装备核查
您当前的位置 :首页 > 影视 正文 来源: oaiu.com.cn 太仓新闻网 发布时间:
2019-11-10

  光明日报记者 龚亮 光明日报通讯员 赵雯

  日前2017世界机器人大会在京闭幕。其中最吸引观众眼球的是为期5天的机器人博览会各类智能机器人让人大开眼界。“长了”53根手指的钢琴机器人可以精准地演奏任何通过软件输入系统的曲谱弹奏能力超越人类极限;身形小巧圆润、会走路能交谈的NAO机器人一亮相让人不禁想到电影〖机器管家〗里智慧深情的机器人安德鲁;还有可“走”进人体、为人类做手术的达芬奇机器人……

  然而就在2017世界机器人大会开幕前两天埃隆·马斯克等116名全球人工智能与机器人公司创始人发布联名公开信呼吁联合国采取行动禁止“杀手机器人”扩散。公开信指出:“人工智能武器一旦发展起来会令武装冲突的激烈程度跃升到前所未有的层级而且会以人类难以想象的速度进化。”

src=http://imgeconomy.gmw.cn/attachement/jpg/site0/20170911/f44d307589df1b20222d3d.jpg

  观众在2017年世界机器人大会上观看会写书法的机器人。新华社发

  从前后两则消息的内容不难看出人工智能具有双面性。新一代人工智能的崛起在给人类带来惊喜与更高生产力的同时也引发了不少担忧。什么样的人工智能是人类需要的?如何避免人工智能挑战人类安全或社会伦理道德?记者就此进行了采访。

  人工智能怎么区分“对”与“错”

  人工智能早已在金融、医疗、广告、军事等领域被广泛应用引发人们对人工智能讨论与担忧的导火索是自动驾驶汽车的面世。

  当一辆自动驾驶汽车行驶在马路上它需要根据实时路况自主作出决策。红灯停、绿灯行黄灯亮了等一等看到行人还要让行。假如这些技术性动作都能够做到那当它遇到类似“电车困境”的情景会如何选择呢?

  设想一下有五位行人突然出现在一辆急驶的自动驾驶汽车前面在来不及刹车的情况下自动驾驶汽车可以沿着既定路线行驶这样可能会撞死这五名行人;它也可以临时转向但会撞上旁边的绿化带这样可能会让它的乘客丧命。此刻这辆汽车该如何选择?

  中国社科院哲学所研究员段伟文指出新一代人工智能是以大数据为驱动其核心是算法。自动驾驶汽车在行驶中的每一个决策都是通过算法设定好的。数据与算法并非完全客观数据的采集、标注与算法的设计往往负载着价值。因此数据解读中的价值取向与算法设计中的伦理考量是确定人工智能区分道德上“对”与“错”的关键。

src=http://imgeconomy.gmw.cn/attachement/jpg/site0/20170911/f44d307589df1b20222d3e.jpg

  观众在机器人大会上观看机器人舞蹈表演。新华社发

  “人们对自动驾驶汽车这类智能机器的担心主要源于对其算法的不了解。不知道在遇到特殊的情景时会以怎样的优先次序进行决策。”段伟文认为可引入医学伦理中的“知情同意原则”即人们在购买自动驾驶汽车时就知道它会按怎样的优先次序去做。比如功利论算法的汽车以伤害最小化为决策原则。相比于撞到五个行人它会选择伤害车上的一名乘客。而道义论算法的汽车则以行为的道德正义性作为决策原则。

  段伟文进一步指出人类都没有解决的“电车困境”难题人工智能自然也很难给出完美答案。但是人工智能有可能基于它的海量数据与迅速反应能力避免出现类似“电车困境”的情景。

  腾讯研究院未来科技中心高级研究员曹建峰认为人们的这些担忧是因为没有与人工智能机器建立信任关系。“人工智能制造企业需要通过多种方式建立用户信任比如让自动驾驶汽车可以向用户解释其决策。只有当用户知道智能机器为什么这么做、为什么不那么做的时候人类与智能机器之间的信任才会慢慢建立。”

  警惕人工智能算法歧视

  算法可以确定自动驾驶汽车在遭遇两难选择时牺牲哪一方。同样它还可以确定很多。比如电子科技大学的智慧助困系统它通过对学生的勤工俭学、食堂消费、校车、浴室等大量数据记录的分析根据这些外显行为对学生的经济状况进行画像然后确定每月给哪些学生的饭卡自动充值。

  智慧助困系统这样充满人文关怀的算法设计是“高道德水平”人工智能的一个经典例子。然而随着人工智能的推广普及各种主观或客观的算法歧视越来越引发人们的注意。

  “人工智能决策日益流行算法歧视是一个不容忽视的问题。”曹建峰举例在某网络公司的广告服务中男性比女性看到更多高薪招聘广告;在购物比价服务中某网络购物平台隐瞒了自我及合作伙伴商品的运费导致消费者看不到公正的比价结果;某犯罪风险评估算法系统性地歧视黑人。

  基于大数据与算法的人工智能给人类社会生活中的各种事务与决策工作带来了很大便利也一直被标榜为客观、准确、理性。然而“算法的设计者们是否可以不偏不倚地将既有法律或道德准则原封不动地编写进程序是值得怀疑的。法则代码化带来的不透明、不准确甚至不公平等问题值得深思与考究。”曹建峰坦言。

  段伟文也指出人工智能算法不可避免地要体现设计者与执行者的利益与价值取向。因为算法的不透明与难以理解有时候很难看出其中的歧视与不公。因此很多人在毫不知情的情况下承受着各种微妙的歧视与精准的不公。

  曹建峰指出在涉及信用评估、犯罪风险评估、雇佣评估等项目时人工智能决策的结果将影响贷款额度、刑罚轻重、雇佣与否。“当越来越多的决策工作从人类向智能机器让渡如何确保人工智能遵循人类伦理变得愈来愈重要。”

  探索人工智能领域立法

  “可能对于很多人来说初识人工智能是通过〖终结者〗〖少数派报告〗〖机器管家〗这样的科幻电影。在这些电影中机器人会比人类聪明而且因具有自我意识而最终变得不为人所控制。”段伟文说这些影片从不同维度折射了人们对智能化未来的担忧与思考。

  在大多数从事人工智能研究的专家看来拟人化地看待人工智能甚至担忧其作为一个新物种毁灭人类有些杞人忧天了。人工智能在单一领域可能比人类强很多比如下棋、运算但要让人工智能像人类一样能思考、有意识短期内不太可能实现。

  “现阶段探讨人工智能伦理主要是指加强人工智能设计伦理旨在保证优先发展造福人类的人工智能避免设计与制造出不符合人类价值与利益的人工智能。”上海交通大学科学史博士陈自富说。

  陈自富认为人工智能伦理设计有三个方面需要注意。一是算法设计中的伦理审计考虑算法中公平、效率之间的关系避免使其成为“黑箱”。二是人工智能涉及的数据的所有权、隐私权与应用开发权的问题。三是人工智能开发中的伦理或政策限制问题即哪些可以研发哪些禁止研发哪些优先研发等。

  “从我国人工智能发展现状来看前两项都缺乏行业规范与相关标准及法规。”陈自富指出一些西方国家在数据的所有权、隐私权与应用开发权的主动管理意识起步较早对于技术开发中与社会各个利益群体之间的沟通也有稳定的机制与监督方式。在这些方面我国要奋起直追。

  现阶段算法的不透明性是一个普遍的问题。“企业可以对算法主张商业机密或私有财产一般使用者对算法进行审查很困难。”曹建峰指出在人工智能日益代替人类进行决策的时代设计出验证、知情同意、透明、可责、救济等方面的机制对于确保人工智能研发利用与人类社会的价值伦理一致至关重要。

  “人工智能产品研发不仅是技术人员的事还需要法律、伦理、哲学、社会等学科人员参与其中。IBM、谷歌等都在某种程度上建立了跨学科的人工智能伦理审查委员会确保人工智能技术的有益性。建议我国针对人工智能研发人员制定相关伦理准则。同时探索人工智能领域立法。”曹建峰说。

  〖光明日报〗( 2017年09月11日 08版)

  中国第八批赴南苏丹维与医疗队首次通过联合国装备核查

  新华社内罗毕11月28日电(彭振纲 金正)南苏丹瓦乌消息:中国第八批赴南苏丹(瓦乌)维与医疗队28日接受了抵达任务区以来的首次联合国装备核查。医疗队所有装备物资全部达到联合国规定要求受到装备核查组高度评价。

  联合国装备核查是对出兵国政府所提供的装备能否完成维与任务而进行的综合性评估也是向出兵国政府予以经济补偿的根本依据。当天联合国装备核查官分别对中国维与医疗队的医疗设备、车辆器材、武器弹药、通信设施、生活保障等35类600余项装备的运转及物资储备情况进行了全面核查。

  根据核查结果医疗队各项装备物资均达到联合国标准满足执行维与任务的各项条件特别是卫生环境被评为联合国驻南苏丹特派团(联南苏团)仅有的两个绿色标准营区之一医疗专业及人员配备为联南苏团最全、最科学。核查组组长维克托·库兹明表示希望医疗队在此次核查成果的基础上加紧各项后续工作成为全联南苏团最好的二级医院。

  中国第八批赴南苏丹(瓦乌)维与医疗队由郑州联勤保障中心抽组而成共63人在任务区向联合国工作人员提供基本卫生保健处理所有普通疾病与传染病实施生命与肢体保全手术实施紧急复苏程序并根据任务区需要实施接种与其他疾病预防。医疗队于9月22日抵达任务区目前已全面展开各项工作。

fgzsd.cn http://fgzsd.cn
精华推荐
大家爱看
《我是歌手2》:周笔畅要"崩溃"张宇和老婆吵架
对保障工作提出具体要求
新型保鲜库落户永兴岛
厄瓜多尔欲与中国合作生产武器 请中国帮造卫星
关于我们 | 广告服务 | 版权声明 | 联系我们 | 在线投稿 | 网站法律顾问
主管:太仓市新闻办公室
主办:太仓电视台 承办:湖北江汉明珠新媒体有限公司
鄂ICP备18043767号 - 信息网络传播视听节目许可证号:273455
版权为 太仓新闻网 所有 未经同意不得复制或镜像