编辑: JZS133 2015-06-25

它们必须服从于 人类 ;

它们必须保护自己. 后来还 加入了 第零定律 : 机器人不得 伤害人类整体 , 不得因不作为使 人类整体受到伤害. 机器人不能伤害人, 但机器 人会以什么方式伤害到人? 这种 伤害有多大? 伤害可能以什么形 式出现? 什么时候可能发生? 怎样 避免? 这些问题在今天要么需要 细化 , 要么需要有更具体的原则 来防范 , 而不能停留在七八十年 前的认识水平. 中国人工智能学 会AI 伦理专业委员会负责人 、 中国科学技术大学机 器人实验室主任陈小平教授说. 全球知名的艾伦人工智能研究所首席执行官埃 齐奥尼两年前就在一次演讲中呼吁更新 机器人三定 律 . 他还提出, 人工智能系统必须遵守适用于其操作 人员的所有法律条文 ;

人工智能系统必须明确表示它 不是人类 ;

未经信息来源明确许可 , 人工智能系统不 能保留或披露机密信息等 . 在当时 , 这些颇有新意的 意见引发业界热议. 美国人工智能伦理领域知名学者 、 麻省理工学院 教授泰格马克近年推广的 AI 有益运动 提出, 需有新 伦理原则确保未来人工智能和人类的目标一致. 这项 活动曾获得霍金等众多全球顶级科学家以及知名 IT 企业支持. 人工智能在乘数效应的推动下会变得越来越强 大, 留给人类试错的空间将越来越小. 泰格马克说. 人为本, 全球探路新伦理 当前全球对人工智能新伦理的研究日趋活跃. 不 少人对人工智能心存芥蒂, 多半来自其高速发展带来 的未知性, 保护人类 成为首当其冲的关切. 必须确保人工智能以人为本的发展方向. 阿祖 莱呼吁. 美国机器智能研究院奠基人尤德科夫斯基提出了 友好人工智能 的概念 , 认为 友善 从设计伊始就应 当被注入机器的智能系统中. 新伦理原则不断提出, 但突出以人为本的理念始 终不变. 百度公司创始人李彦宏在

2018 年中国国际大 数据产业博览会上提出了 人工智能伦理四原则 , 首 要原则就是安全可控. 美国电气和电子工程师协会规定, 人工智能要优 先考虑对人类和自然环境的好处的最大化. 新的伦理原则制定也正提上各国政府的议事日 程. 中国政府

2017 年7月发布 《新一代人工智能发展 规划》 时就指出, 建立人工智能法律法规 、 伦理规范和 政策体系 , 形成人工智能安全评估和管控能力 ;

2018 年4月, 欧盟委员会发布的文件 《欧盟人工智能》 提出, 需要考虑建立适当的伦理和法律框架, 以便为技术创 新提供法律保障 ;

今年

2 月11 日, 美国总统特朗普签 署行政令, 启动 美国人工智能倡议 , 该倡议的五大重 点之一便是制定与伦理有关联的人工智能治理标准. 存忧虑, 跨界共商新问题 陈小平呼吁, 为规避人工智能发展过程中的伦理 道德风险, 人工智能学术界和产业界, 以及伦理 、 哲学 、 法律等社会学科各界应参与原则制定并紧密合作. 他认为, 虽然从短期看还没有证据指向人工智能 有重大风险, 但依然存在隐私泄露 、 技术滥用等问题. 而无人驾驶 、 服务类机器人的伦理原则也须尽快探讨 制定. 美国电气和电子工程师协会还规定, 为了解决过 错问题, 避免公众困惑, 人工智能系统必须在程序层面 具有可追责性, 证明其为什么以特定方式运作. 就长期来看, 不能等到出现了严重的问题, 再制 定措施去防止. 陈小平认为, 人工智能和其他技术的 特点不一样, 很多人工智能技术具有自主性. 例如自主 机器人在现实社会中具有物理行动能力, 如果没有适 当的防范措施, 一旦出现严重问题, 可能危害较大. 陈小平希望更多人参与人工智能伦理研究, 尤其是 科学家和工程师, 因为恰恰他们最了解问题的根源、 危险 可能发生的方式、 细节和相关技术进展, 他们不说, 外界 只能去猜, 难以得出正确的判断和适当的应对措施 . 他还提醒, 在防范风险的同时应该注意平衡, 避免 因为过度限制或使用不合适的降低风险方式造成遏制 产业发展的副作用. (记者杨骏)新华社北京

下载(注:源文件不在本站服务器,都将跳转到源网站下载)
备用下载
发帖评论
相关话题
发布一个新话题