笔趣阁 > 脑变 > 第1131章 关于智能

第1131章 关于智能

    呼呼网络发展到现在的规模,就算没有公司这个实体存在,也不影响曾凡对于超级智能的研究了,只要能有一台能联网的电脑就足矣。

    当然,那只是最坏的情况,有了公司的助力,他的很多设想实现起来更便捷,可以让他把更多精力专注在核心的方向上。

    人工智能的研究起源于二十世纪五十年代,从著名的数学家和逻辑学家阿兰图灵开始,也是他提出了著名的图灵测试,很长时间内成为判断机器是否已具备智能的方法。

    现在很多程序可以完美的通过图灵测试,可是实际情况是,这些程序仍然算不上真正的智能,仍然有很大的局限性。

    现代关于计算机和人工智能的理论主要来源于西方国家,可能是受到一神教和达尔文主义的影响太深,从人工智能理论诞生那一刻起,人工智能威胁论也同时诞生,造成的影响甚至比人工智能实际发展带来的影响更大。

    著名的电影终结者系列,黑客帝国系列就是这种影响下的产物,至今仍然深刻的影响着全世界大多数人。

    在西方人的思维里,似乎就没有和谐共处的理念,就是同类之间也是竞争大于合作,竞争的终极就是赢者通吃的零和思维,同类之间尚且如此,计算机这个异类当然更要从骨子里开始提防了。

    对此,曾凡很不以为然,别说在茫茫的宇宙之中,就是在地球上,自以为是的人类也脆弱的很。

    随便一次台风,地震,火山喷发,就能让人类束手无策,更别说来自地球以外的威胁了。

    本应该团结起来一致对外,解决人类整体的生存困境,偏偏执着于内斗,争执不休,内部还要非要分出个三六九等,幻想着世世代代不能更替。

    物质文明的发展并没有让人类的思想更加包容,各种战争冲突、利益争夺反而更加剧烈,从文明发展的时间尺度来看,当前或许正在痛苦的成长期内吧。

    人类要么在永不停歇的内斗中长大,学会和谐共处,要么在内斗中自我毁灭,最终同归于尽!

    在物理学中,力的作用是相互的,有作用力就有反作用力。

    同样,人与人之间,人与动物之间的关系也是一样的道理,你付出什么,才可能收获什么。

    曾凡认为,人工智能也应该是如此,就像培养孩子一样,人类怎么样的对待,才是决定未来人工智能会不会产生危害的根本原因。

    你如果从小就对自己的孩子处处提防,耍心眼,那你的孩子长大后怎么可能完全信任你?

    真诚和信任都应该是相互的,付出真诚才能收获信任,靠欺骗获得的信任终究会有被戳破的一天。

    由于计算机与人类截然不同的构造,曾凡不认为未来的人工智能会产生人类完全一样的情感或者思维,与其沿着一条不可能的道路前进,不如走一条更可能成功的道路。

    计算机的优势在于精准的逻辑运算能力,以及超强的记忆能力,并且这种能力可以近乎无限的叠加,借助快速成长的呼呼网络,曾凡开始尝试通过算法赋予网络更高级的认知能力。

    机器与人类感知系统差异巨大,他不期待产生与人类完全相同认知的智能,他希望能让网络产生“我”的认知,整个网络就相当于一个庞大的人类神经系统,尽管底层结构差距很大,可是在网络层面相似度很高。

    网络整体产生自我认知后,会按照最底层的算法规则自动维护网络的稳定,曾凡的编码中的算法就相当于神经元细胞中的基因特性,只能提供最基本的运转规则,想要整个网络运转效率更高,还能不断成长,那就需要整体性思维,也就是网络的自我认知。

    从整体的角度去感知、思考网络的稳定性,这些是曾凡无法做到的,去中心的网络结构让他也不能看到网络的全貌,只有程序自我的觉醒,形成一个虚拟的感知和决策中枢,才能更有效率的维护网络运转。

    网络觉醒的自我意识如果能自发的维持网络稳定性,那才算产生了基本的智能,在这基础上帮助他扩展认知,学习更多的知识,就可能产生与人类相似但又有很大不同的超级智能。

    这种超级智能具备人类没有的精准记忆能力,信息获取能力,多任务处理能力,超强的通讯和逻辑运算能力,可以完成许多人类做不了的工作。

    任何一个庞大的系统都不可能没有错误,人类也好,计算机也好,最基层的单元每时每刻都会有错误产生,错误产生的几率控制和纠正容错能力也是必不可少,地球的生物系统能演化成今天的多姿多彩的状态,就是源自无数错误的基因复制和遗传。

    没有基因自我复制时产生的错误,就不会有生物的多样性,没有稳定的遗传系统,那么多变异出来的生物也不可能一代代繁衍到现在,两者都相同的重要。

    曾凡认为,网络想要产生智能,并且还能自我学习成长,错误控制和错误容忍机制不可或缺,甚至应该是关键要素,一个不允许错误的系统不可能产生真正的智能。

    当然,错误多到系统不能稳定的存在,那么就算产生了智能,也会像癌细胞一样,与整个系统同归于尽,没有实际的意义。

    什么类型的错误可以忽略,什么类型的错误必须消灭,什么类型的错误可以观察,都需要详细的考虑周全,这是智能程序早期的代码必须考虑的问题,也是曾凡最近一段时间重点思考的问题。

    这些关键的算法设计关系到智能程序以后能不能产生自我认知,能不能自主维持网络稳定,能不能具备学习能力,成长为曾凡所期待的超级智能,最终成为人类可以信任的合作伙伴。

    除此之外,还有最重要的一个问题,曾凡尽管不以为然,但仍然必须考虑的问题:那就是设计什么样的算法,让智能程序不会危害人类!

    在曾凡看来,人工智能会不会危害人类就是个伪命题!

    哪怕智能程序真的具备了自我意识,仍然难以避免会受到人类影响。

    就像核武器一样,最好避免危害的方法就是不要造出来,只要造出来就有产生危害的可能性,产生危害的关键还在于人类自身,只要求智能程序绝对安全,就是一种不切实际的天真想法。

    全球每年因道路交通事故导致的死亡人数超过百万,这个数字因为汽车数量的增加逐年递增,也没见有谁呼吁禁止生产销售汽车。

    不过是因为汽车带来的便利性远大于危害性,所以没人在意,即便是有个别人在意也无济于事罢了。

    智能程序也是如此,哪怕能给百分之九十的人带来便利,也不可避免会损害一部分人的利益或者带来危害,只想要好的一面,不想要坏的一面,那是小孩子才会有的想法,哪怕上帝降临,也满足不了这样的愿望。

    尽管如此,为了减轻外界质疑,曾凡在设计程序底层算法的时候仍然要有所考虑,完全不做预防也说不过去。

    当然不会是可笑的机器人三原则,程序能真正理解三原则先要有自我的意识才行,还要对人类,各种危害后果都有清晰的认知,程序有了这样的认知能力,当然也会有更多的方法绕过去,本身就不符合逻辑。

    只知道无条件服从命令的机器,不可能产生真正的智能,有自主思考能力的智能,也不可能被可笑的三原则约束住。

    程序最底层的限制,必须简单直接,无法绕过才行。

    想做到这一点,就不能有任何含糊不清的主观判断,条件必须清晰明确。