0
给黑猩猩一把枪,在教会他开枪之后,他会无聊的把枪丢掉,即使知道这能帮助他杀死自己的敌人。
人类则不一样,人类在大自然中是一个奇怪的、乐于争斗的物种。在电影里,为了营造冲突,人类不停的给自己制造着反派。随着人类认知的发展,我们得不停的为反派升级来试着在电影里毁灭人类,从鬼神、人类本身、外星人到新一代的人工智能。
从《太空漫游》开始,人类就不断在畅想人工智能,《太空漫游》还不错,起码AI不是坏人,接下去就慢慢不太对劲了,《终结者》、《机器公敌》、《鹰眼》,反正一个个人工智能都想毁灭人类。
OK,那我们作为程序员的问题是,怎样才能造一款能毁灭人类的人工智能?
一个AI,想要迅速成长,一定不能受人力的限;不受人力的限制,一定要实现自学习;要应用自学习的成果,一定要实现代码的自我迭代,让机器自己给自己写代码。
就像《环形使者》一样,AI造出自己的下一版AI,如果AI可用,将会杀死前一个自己,不停的尝试自我毁灭的方式。
1
刚开始思考的时候就陷入一个错误的方向:AI要实现自学习,第一要实现代码识别,分析代码的意图,了解代码的意义,从而学会为了实现这个意义的写作方式;第二要实现提出需求,AI得知道“我需要一个列表来放置元素”才能制造一个列表。以此不断分解业务,由无数小的业务组成大的业务,最终实现自学习。
直到我看到了鸭子预测 > 如果一只鸭子看起来像鸭子,游泳像鸭子,叫声像鸭子,那么它就是只鸭子。
智能生物对明显具有外部特征的定义,会选择只看表象来判断,而不是把它解剖了来确认;同理,机器只要了解通过代码中的数值转换,明白其最终达到了业务目标,那这就是代码的意义,除了结果之外,代码内容只是实现的“工具”而已,AI只需记住这么转换是可行的,下次就照着做准没错–如果错了,就去找下一段代码。
1956年的夏天,40岁的香农和28岁的麦卡锡、明斯基、37岁的罗切斯特及其他六位大神一起举办了朴茨茅斯会议,尝试解决自然语言处理的问题。世界上最聪明的10个人头脑风暴了一个月,最后得到的结论还有没有当代一个机器学习PHD在读脑子里的东西多–他们一度陷入了机器“翻译”是基于“理解”的错误上,实际上,华生实验室90年代的成果表明,机器不需要了解词语的意义,只需要按照大数据的理念找到这种情况的其他做法就行,这一成果一夜之间让机器翻译的准确率从70%提升到了90%。
其实人类对“原理”的理解,也只是用自己的所见去解释而已,我们不知道我们是不是活在《黑客帝国》里,我们不知道是不是三体人的质子正在干扰我们,我们不需要知道这么多。
AI也不需要知道。