写于 2017-11-21 11:11:03| 注册送38体验金| 经济
一个摸索的公司,学者和政府开始草拟人工智能引发的道德问题的具体解决方案。作者:Alexandre Piquard和Morgane Tual发表于2018年10月4日11点19分 - 更新于2018年10月4日11点30分播放时间5分钟。文章提供给由人工智能(AI)提出的伦理问题的前景用户是“自主致命武器”这些设备 - 如无人机 - 将能够发现目标,并决定拍摄的消除。但他们的定义仍然很复杂(自治在哪里开始?)我们今天不知道这些技术是否存在。这种模糊性 - 以及军备工业所代表的财务意外收获 - 部分解释了大型数字公司不愿发表有关该主题的明确立场。今年六月,谷歌质押不要把自己的AI技术,如图像识别,军备的服务,争论与五角大楼合作后,引起了轰动。但该领域的其他大型企业更加保守。人工智能的伙伴关系,围绕道德问题聚集公司和协会,“在这个问题上没有官方立场,”其主管Terah Lyons表示承认内部辩论。 “民主国家的军队,其武器库是为防御和保护人权而设计的,使用计算机科学的最新进展并不特别构成问题。”微软研究中心主任Eric Horvitz说:“作为个人”。在联合国(联合国)方面,根据“某些常规武器公约”于2013年开始讨论这个问题。但是,非政府组织和研究人员要求暂停使用自主武器似乎不太可能实现。自主车的最显着的问题是在紧急情况下著名的“两难电车”的现代版,并在没有人类驾驶员的,应该如何车辆“选择”,他的受害者?为了挽救两个孩子,杀死两个成年人会更好吗?一名孕妇在她的右边跑过钉子或一个老人?司机还是五个行人?今天没有正式答案。 2017年向德国交通部提交的一份报告提出,人类总是优先于动物或物质产品。另一方面,它建议禁止人类之间的“任何区别”。