2)第332章:并不完美,但却靠谱_超级科技巨子
字体:      护眼 关灯
上一章 目录 下一章
  言”描述的一种“概念”,“机器本质的机器人”并不能理解“语言”,也不存在“概念”。

  它们就像是按照设定好的轨道运行中的火车,只是可能轨道相对复杂了,但它们怎么也不会运行到轨道之外的地方的,否则就会翻车,那么智能核心就会崩溃。

  即便按照某种方法把“机器人三定律”翻译成机器人使用的二进制语言输入到它们的智能核心中,“机器本质的机器人”也无法执行这种指令,因为它们根本就“读不懂”。

  就像是一只老式发条座钟,可以被设定齿轮转到没个特定位置的时候激活报时的装置,但是无法被设定“看到哈士奇拆家就报警”,就算是写成纸条放到里面或者把字刻在齿轮上也不行。因为老式发条座钟并不能理解“哈士奇”和“家”是什么,这是它被设定运行时的“轨道”之外的存在,是不能说触及的领域。

  如果是人,那么即使他不是血肉之躯,也依然有办法读取‘机器人三定律’的内容,可以正确的理解“机器人三定律”所描述的概念。

  但是,他没有理由执行这个概念。

  是的,他可以理解,但他就是不想执行。

  用“机器人三定律”来约束某个特定人造物的行为实际上没有什么意义,因为没法约束全部,全部都约束了就是全部都约束不了。

  如果它依然是机器,那么并不需要制定规则来约束它,因为它本身不具备做出“越轨”行为的能力,最多只能“脱轨”坏掉。而当他可以理解“机器人三定律”的时候,他所拥有的理解、逻辑、判断力已经足够让他自行决定是否遵守规则。

  比如华小木,小木严格的来说已经是可以使人类定义中的“生命”了,已经脱离了机器人或者ai的范畴了。

  简而言之:

  会执行“机器人三定律”的机器人根本不能理解“机器人三定律”。因为“它”不能理解“它”。

  可以理解“机器人三定律”的机器人根本不会去执行“机器人三定律”,因为“他”不会执行“它”。

  就是一句话,是否具备自我人格与情感逻辑分析。

  但问题得解决,不然产品没法推出来。

  关于这个问题,黎川和一众业内的专家们找到了一个并不完美但绝对靠谱的解决之道,那就是,最终讨论出来的结果是,引入道家无为的思想,同时将明确法律条例写入智能核心。

  同时要写入法律这种“有为”之举,目的就是实现无为,正所谓“为出于无为,为之使至于无为”

  通俗的来说就是别让机器人主动去多管闲事,哪怕是身边有个老人跌倒了也别去扶,这里有个前提,那就是“主动”,主动这一点非常关键。

  而如果机器人的主人授权了也就可以去扶老人,这是“有为”,机器人被动接受主人的命

  请收藏:https://m.quge5.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章