阿尔伯特的担心不无道理,这些理论在之前是完全没有机会实践运用出来的,甚至都是一些已逝学者们尚未证实的论文残篇,它们究竟蕴含哪些不稳定因素还不知晓,如果在未经风险估测的情况下直接用在工程项目里,这就违背了他一开始制定的研发安全条例。
不过为了避免打击大家的研发热情,他也专门抽调了一个评估小组,专门用于验证这些深藏多年的天才想法。然而这些东西大多都是理论性的,是一些‘过时的前沿科学’尝试,所以要验证起来还是相当费时费力。尽管如此,很多老一辈还是愿意抽出自己本就不多的闲暇时间加入小组,他们不想看见前辈辛苦一辈子的成就被永远埋没。
就这样,前几天的时间都在大家一片赤诚热情的种种讨论会议中过去了,这是属于理想主义者的狂欢,也是对科研先驱们的致敬。
到了第二周,关于迭代方式的选取已经有了眉目,底层架构项目的动工更是进展迅速,在近千名研究工作者的共同努力下,超级AI在整体方向上突破斐然。只不过随着项目进展越来越快,一些矛盾争议渐渐出现在团队内部。
尤其是在逻辑编码团队,大家开始争辩到底要不要在超级AI意识觉醒前加入那么多禁令,毕竟一开始它就连自我迭代都做不到,也无法产生任何威胁。这就像给一个未出生的孩子做法律胎教一样,这些适用于人类道德的条条框框,不仅对AI的逻辑演化会有很大束缚,还影响到后续超级AI的进化倾向,毕竟谁都不希望搞出一个只知道往死板教条方面走的人工智能,这样进化下去它的学习能力就会像一条对数函数曲线,最终甚至不保证走向退化。