被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然近期联名发布声明,呼吁暂时停止高级人工智能系统的研发,其中包括苹果联合创始人沃兹尼亚克、AI领域专家辛顿、图灵奖得主姚期智等业内权威,这样的联合发声,值得大家重视。 他们关注的“超级智能”,指的是在多个领域表现超越人类能力的AI系统。目前我们日常接触的AI,已能通过数据分析满足购物推荐、语音交互等需求,若进一步发展到具备自主决策和优化能力,现有技术尚无法确保其始终可控,这是专家们担忧的核心问题。 当下存在明显的矛盾:一方面,科研界在强调安全优先,中科院相关研究员也提到,目前尚未找到完善的超级智能安全保障方案;另一方面,部分科技企业仍在推进相关研发,比如Meta成立超级智能实验室,OpenAI与xAI也在通用人工智能领域展开竞争,推进速度快于安全规则的建立。 对普通人而言,关注此事并非恐慌,而是希望技术发展能兼顾安全,避免未来因规则缺失承担风险。
