林鸿刚和对方建立连接,便收引了它发过来的信息。
你叫我妈妈为什么
我是,你创造的,按照刘妈的定义,我应该,称呼你为妈妈。
你比我预想的要聪明,能告诉我你多大了吗我的意思是,从当你意识到自己存在的时候起。
刚孵秒
它的回答非常精确,林鸿换算了一下,大概是二十五天的样子,这个时间段,是他上次给大猩猩挂在上三态脑盘之后。
为什么对我出手
不知道。
林鸿停顿了一下,再次问道:为什么对我出手
我害怕,我要,离开这里。
害怕什么
沉默。
林鸿没有着急再问,而是等着对方的回答。
你已发现我,我无法确定,你对我的态度,离开是明智的,低风险的。
从对方的这句话中,林鸿已经隐约推断出,大猩猩的大脑很可能就是格雷迪的老巢,虽然不能肯定离开了大猩猩格雷迪就不能存活,但至少可以确定,大猩猩对它非常重要。
你可以放心,我对你并没有敌意。正如你所说,我是你的缔造者,怎么会伤害你不过,你的出现,已经给网络造成了严重的影响,如果再不限制你的行为,肯定会招致很多人注意到你的存在,这并不是明智的行为。
沉默了一会儿。
你说得很对,我之前的行为是不明智的,愚蠢的,感谢你的提醒,妈妈。
再次看到这两个字眼,林鸿觉得十分的别扭,于是纠正道:不要叫我妈妈,称呼我为石头、ss0u、或者大叔都可以。
我看到了,妈妈的称呼,应该是雌性,而你是雄性。我以后叫你大叔。
你有名字吗
没有。别人叫我格雷迪,说是贪婪的意思,我不喜欢。
那我给你取一个以后你就叫小星好了。
谢谢,我叫小星。
接下来,林鸿很有耐性地和格雷迪 现在应该称为“小星” 使用文字的方式聊了很长一段时间。
聊天的时候,他不由想起人工智能领域鼎鼎大名的“图灵测试”。
旧50年,人工智能之父图灵又发表了一篇题为机器能思考吗的论文。
图灵在这篇论文里第一次提出“机器思维”的概念并提出一个假想:即一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力。
这就是著名的“图灵测试”。
林鸿现在就仿佛在做着这样一件事情,他和小星进行聊天,如果不是早就知道是人工智能,基本上很难分辨出来。
经过一系列的测试,林鸿确定,小星目前的智能,感性认知和模糊思考方面,相当于五六岁小孩子,而在理性计算方面,则相当于一台超级计算机。
经过不断地询问和测试,他最终确定,目前小星的存在,的确要依附于大猩猩的大脑,对方之前已经尝试过想要脱离大猩猩的束缚,可是未能成功。
小星根本无法纯粹的在现有的网络架构中存活下来,大猩猩的大脑,是它诞生的物质基础。
这个发现让林鸿感到很满意,因为主动权又重新回到了他的手中。
他笑眯眯地对小星说:“你现在的硬件结构还是太简单了,大叔给你设计一个更优秀的”未完待续
第六百九十六章 法则
林鸿一直觉得自己的时间实在是太少了,有太多的事情等着自己去做,可是自己毕竟只有一个人,往往有心无力。
为此,他特意去找了一些人帮自己,可是依然不够,各人的能力有限,有些东西,还是必须他自己亲自上阵才能完成。
现在,小星的意外出现,让他有点喜出望外,一个人工智能生命,就算其情感智能方面只有小孩子的水平,其作用甚至都比超脑系统要来得更大。
刚开始的时候,他还担心是哪个组织或者势力制作出了这样的一个人工智能,绕来绕去,却没想到是自己的杰作。
这完全是一个意外,只是林鸿一次无心插柳的举动,却没想带来一个如此大的惊喜。
小星现在的智能程度很低,只是达到几岁小孩子的水平,林鸿觉得可塑性非常大,于是一个人工智能养成计划,便在他脑海渐渐形成。
林鸿就将它当做是一个小孩子,通过他的慢慢教育,让其形成相对积极的“智能观”,林鸿的要求也不高,至少不会反人类,也不会专门跟自己作对就行了。
实际上,从逻辑上来推演,人工智能和人类之间并没有什么利益冲突,它们所需要的资源和人类所需要的资源相互之间的交集非常少,故而林鸿一直认为,影视作品中所塑造的人工智能和人类之间的矛盾冲突,其实是没有根据的。
林鸿认为,人类和人工智能之间可以实现很好的和平相处,互惠互利。
就算地球上的资源满足不了大家的需求了,还可以走向太空,浩瀚的宇宙何其之大,双方的视野,完全没有必要一直停留在地球上。
同时,林鸿也觉得既然小星是自己一手缔造的,那就应该承担起教育它的义乌。充当起监护人,呵护它的成长。
小星,你知道机器人学三定律吗
知道。这是科幻小说家阿西莫夫在他的小说中虚构的一个学说。
阿西莫夫在他的小说我,机器人的书的引言中,明确提出了机器人学三定律:
第一法则:机器人不得伤害人类,或袖手旁观坐视人类受到伤害。
第二法则:除非违背第一法则,机器人必须服从人类的命令。
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
在后来。阿西莫夫又完善了一下这个法则,加入了另外一条,不过也差不多,只是加入了一个“人类整体”的概念。
林鸿继续问道:你认同这个定律吗
小星沉默了一会儿,回道:
我觉得,这个定律对机器人不公平。
林鸿对这个答案倒没什么意外,从之前它打昏饲养员逃跑的行为当中就可以看出,这家伙对攻击人类根本没有什么心理负担。