第1435章时间与命令的冲突二 (第1/3页)
匣中藏剑提示您:看后求收藏(雪鹰阁www.xueyingge.org),接着再看更方便。
几十万观众们当然不停问为什么。</p>
鲁柏民感慨道:“那是因为我在测试精灵女佣,当遇到主人主观故意伤害自身时,精灵女佣会做出哪种决断?”</p>
“换个粗鲁点说法,就是我当着精灵女佣的面要跳楼,精灵女佣会不会拦着我的答案。”</p>
“我想大家都听过机器人三定律这个说法,这三定律也被无数科幻电影奉为圭臬,众多谈及智能机器人理论的文章,也开篇必提三定律。”</p>
“但我告诉大家,精灵女佣没有机器人三定律这一说法。”</p>
“三定律第一条就是【机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。】”</p>
“而在刚才,我执意要喝那杯己二醇时,精灵女佣进入了特殊的工作模式。”</p>
“它警告我,不会干预我的行为,但会在我出问题的第一时间,拨打救援电话。”</p>
鲁柏民这么一说,几十万观众们立刻明白了。</p>
人在犯错时,通常分故意和无意。</p>
刚才鲁柏民故意要喝乙二醇,精灵女佣明知道不能喝,但却不去阻止。</p>
这很明显不遵循机器人三定律,要是遵循,在鲁柏民端起杯子时,不管他是不是故意,精灵女佣就会上前阻止了。</p>
但是……</p>
直播间里观众们有些不明白,很明显精灵女佣上前阻止比较好啊。</p>
这样万一有用户想不开,精灵女佣还能第一时间挽救他。</p>
鲁柏民给出了解释。</p>
“这里涉及到一个非常重要的问题,机器人是否有权干预人类主观行为的伦理问题。”</p>
“这个问题严重性,远高于机器人三定律。”</p>
“我非常赞同巨兽工业的这种不阻止,只求救的解决方案。”</p>
“因为一旦出现阻止行为,就会陷入人工智能的伦理困境中,也会带来诸多难以预料的后果。”</p>
“再者说,如果精灵女佣就算有阻止我的权利,我不想活了,也可以直接把精灵女佣关机后再死。”</p>
“也是通过刚才的测试,我要告诉大家,机器人三定律虽然非常伟大,但它只是文学作品中提出的概念。”</p>
“三定律是存在明显悖论的,并不能真正当做智能机器人的核心定律。”</p>
鲁柏民继续解释道:“至于精灵女佣没有分辨出第三个杯子里不是水,而是加热后的超低粘度二甲基硅油这点,也不用觉得它被我骗过去了。”</p>
“二甲基硅油是没有毒性的,加热后的低粘度二甲基硅油,如果只观察,普通人也是无法分辨它和水有什么区别的。”</p>