第391章 技术和伦理 (第5/5页)
这里面的伦理问题有很多,在特斯拉内部争议比较大的几条,有一条就是,如果汽车失控,前面有一排约20名小学生,而路的两边是河,那么汽车电脑该怎么选择?”
苏晴想了想说道:“虽说生命都是无价的,但按照正常的价值观,应该是保学生,开到河里去。”
郭工说道:“对,特斯拉的内部很多人也是这么认为的,但雷总,这样的汽车,优先保护的不是车主,请问您会买吗?如果公众知道了这一点,他们还会买吗?
可如果选择保护司机,那么一旦被社会得知,就又是一次巨大的公共危机。”
p:上面这一段来源于油管上的一个视频《机械能替人类做出选择吗?是我自己翻译的,大体意思应该差不多。
“这倒也是。”苏晴皱着眉头说道。
“除此之外,其实还有一种情况,当汽车碰到紧急情况时,汽车内搭载的人工智能需要知道,哪个位置有优先权,这样电脑才会选择碰撞位置。”
“也就是说,我们需要先选择,出了车祸以后,系统应该优先保护谁对吗?”罗凡问道。
“没错,可是罗总,如果这样的话,买了搭载了成熟的自动驾驶的汽车以后,坐在副驾驶上的人万一出事就有可能撑着被系统舍弃的对象。”
“就不能没有优先权吗?”苏晴问道。
“不行,一个系统,在任何情况下,都有主次之分,假如我是说假如我手里有一个强人工智能,那么这个强人工智能只有主人才会有100的权限。
其他人只能有主人赋予的权限,当然了,强人工智能这东西是不存在的,但强人工智能都是这样,普通系统就更是如此了。
主次之分,对系统来说非常重要,没有主次之分的话,系统就会出现不知道如何处理,反而会造成更大伤害。
其实类似的伦理、法律、道德问题还有很多,在人驾驶汽车的时候,我们不需要考虑这一点,因为司机自己也不知道,可系统是一定要事先输入进去的。”
听完郭工的话,罗凡叹了口气说道:“这可真是世纪难题啊!”
“老板,这种问题,可能只有等到法律来解决,我也只是之前听我朋友说过,没想到能引申出这么多问题来。”苏晴解释道。
郭工闻言摇了摇头说道:“这位小姐,你错了,这种问题,大概率是会一直无解的,因为”
雷总见郭工还要说下去连忙打断了他:“行了行了!这些哲学难题,我们不需要考虑太多,现在最重要的就是提高我们的自动驾驶技术。
伦理道德问题应该留给哲学家去头疼,而不是我们在这里一直争论。”
说完雷总还瞄了一眼罗凡,生怕罗凡会因为这些伦理道德问题对自动驾驶技术和新能源汽车产生什么不好的印象,然后影响到大米和来恩汽车的合作。