写于 2017-12-12 15:20:01| 注册送38体验金| 经济
<p>一些研究人员已经在研究道德问题,这些问题可能源于假设出现的一种技术,这种技术的智能超过了人类</p><p>作者:Alexandre Piquard发布于2018年10月4日11点29分 - 更新于2018年10月4日11点29分播放时间3分钟</p><p>仅限订阅者文章如果认为“超级情报”会出现,应该采取什么样的道德预防措施</p><p>这是OpenAI安全部门主管Dario Amodei提出的问题</p><p>这种结构的产生是为了实现“通用人工智能”(AGI),这个术语用于指定一种人工智能,它具有与人类相似的推理能力 - 甚至更优越</p><p>据CNRS伦理委员会主席Jean-Gabriel Ganascia称,在这个阶段,这种软件的出现是纯粹的假设,甚至是“神话”的危险</p><p>实际上,当前的AI只执行简单的任务</p><p>没有什么可以与人类大脑的复杂性相提并论......“阿莫迪先生承认,没有人可以说AGI何时出现</p><p>但是,如果我们感到意外,组织必须做好准备</p><p> OpenAI拥有60名员工和位于旧金山市中心的初创地点,是两年前围绕AGI诞生的小型“生态系统”的桥头堡,欢迎Nick Bostrom</p><p>瑞典研究员领导牛津大学(英国)的人类未来研究所,并参与DeepMind商业道德工作组</p><p>他还引用了加州大学伯克利分校(CHAI)的人类兼容人工智能中心</p><p>这些研究人员的工作既令人眩晕又基​​本</p><p>其中最着名的是“按钮关闭”,即人类可以“熄灭”AI失控或对人类物种造成危险</p><p> CHAI的联合创始人斯图尔特拉塞尔通过唤起2001年的电影“太空奥德赛”来解释它:英雄,聪明,设法停用HAL电脑,变得具有威胁性</p><p>但该怎么做,面对一个会禁用他的“关闭按钮”的软件</p><p>如果人工智能被赋予了足够模糊的使命,拉塞尔先生试图证明可以避免这种情况</p><p> AGI的道德研究通常侧重于分配给软件的目标,称为“目标函数”</p><p> Mark Nitzberg表示,如果限制性太强或定义不明确,算法可能会造成附带损害,例如机器人真空吸尘器,以清理吞噬家猫或珠宝的公寓</p><p> ,CHAI主任</p><p>为了解决这个问题,搜索框试图定义一个“与我们的价值观一致的目标函数”,他补充道</p><p> “但是用数学方程来定义人类价值是很困难的,”委婉的达里奥阿莫迪说</p><p>研究人员正在研究AI是否可以通过观察人类或进行交互来学习</p><p> “这有点像父母教育,