被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这事儿真不是闹着玩的。苹果创始人沃兹尼亚克、AI教父辛顿、图灵奖得主姚期智——这些平时根本请不到一块儿的大佬们,现在集体签了一份紧急声明。他们直接挑明:在找到确保安全的方法之前,必须暂停研发比人类更聪明的AI系统。 什么叫“超级智能”?就是那种在所有事情上都比人聪明的AI。它可能比我们更会搞科研,比我们更懂做生意,甚至比我们更了解自己。但问题来了:如果它这么厉害,我们还能管得住吗? 网友:美国的人工智能遥遥领先的时候,这些人怎么不出来说话,现在看中国的人工智能开始领先了,这些人都看出危机了,我怎么这么不相信科学无国界这句话呢? 人工智能从单方面考虑是为人类造福,从长计议和考虑,对人类的发展具有较强的对抗性,攻击性,因为他们的发展比人类聪明,想象强,发挥力强,人类根本控制不住和撑握不了他们,反过来,他还会伤害你们和攻击你们,会造成机器人控制人类的逆转现象,这种发展是一种危险的信号,值得我们深思,更值得我们考虑为人类的发展和生存具有足够的生存的空间和立足之地。 若真能造出聪明于人类的人工智能,有可能是人类的灾难,想像一下,应该知道答案,聪明于人类,是不是最后不受人类控制? 无论付出何种努力、采用何种方法,碳基生命被硅基生命取代的结局都无法逆转。对于碳基智慧生命而言,这种取代深植于基因的底层逻辑,而其最终的消亡,本质上是由自身无法遏制的贪婪所注定。宇宙中难以寻觅碳基生命的踪迹,正因为从碳基智慧生命演进至硅基生命的过程,在宇宙的时间尺度下不过是转瞬即逝的瞬间——它们尚未被发现,便已在自身的宿命与文明的迭代中走向终结。
