欢迎访问BB贝博APP体育,咨询电话:400-658-0379
首页 > 新闻中心 > 技术相关

一群技术人拉横幅围堵OpenAI不禁AI就一直闹

来源:BB贝博APP体育    发布时间:2025-02-25 02:54:57

  

一群技术人拉横幅围堵OpenAI不禁AI就一直闹

  近日,据外媒消息,一群活动人士于上周六在美国旧金山集会,成立了名为 “停止人工智能”(Stop AI)的非暴力公民抵抗组织,旨在阻止人工智能逐步发展,尤其是针对通用AI(AGI)。OpenAI 将 AGI 定义为在多数经济价值工作中超越人类的高度自主系统,而该组织认为其影响巨大且危险,希望能彻底禁止。

  Stop AI 在其网站上公布了一系列目标,包括要求政府强制人工智能公司关停与通用AI模型创建相关的一切工作,销毁现有模型并永久禁止其开发。不过,他们并非要禁止所有人工智能,而是仅针对那些威胁人类生存的部分。

  在具体行动策略上,Stop AI 主要是通过组织抗议活动来扩大影响力。例如,他们在近日又开始“围攻”OpenAI 位于旧金山的总部进行抗议。此前,该组织已在 OpenAI 办公室及另外的地方举行过多次抗议活动。其中,两位联合发起人 Sam Kirchner 和 Guido Reichstadter,因在去年 10 月封锁 OpenAI 的入口被捕。

  Stop AI 成员 Finn van der Velde——一位具有计算机科学和人工智能技术背景的安全倡导者及活动人士,表示要阻止 AGI 出现,在大多数情况下要一项国际条约,各国共同约定不开发 AGI,这在某种程度上预示着要解散像 OpenAI 这样以开发 AGI 为目标的公司,同时监管计算能力,防止有人训练出 AGI 模型。

  在抗议活动中,也有人呼吁对 OpenAI 前雇员、侵权举报人 Sunchir Balaji 的死亡展开进一步调查。

  2024 年 11 月,Balaji 被发现死于其位于旧金山的公寓中。但 Balaji 的父母表示,他们不相信儿子是自杀身亡,他们盼望外部机构调查儿子的死因。

  26 岁的 Balaji 的父母表示,他们仍对儿子的死因存有疑问。他们说,11 月 26 日,Balaji 被发现死在旧金山的公寓里,身上有疑似枪伤的痕迹。旧金山警方表示,这似乎是一起自杀事件,初步调查中未曾发现谋杀的证据。不过,他的母亲说,他的公寓里有些东西不对劲。

  “密码驱动器不见了。他的电脑坏了。他的台式电脑已经开着三天了。一切都乱七八糟,”Balaji 的母亲普尔尼玛·拉玛劳(Poornima Ramarao)说道。

  Balaji 于 2020 年开始担任 OpenAI 研究员,辞职后,他公开声称该公司在开发 ChatGPT 时违反了版权法。他的父母说,在他去世前四天,他被传唤为一起针对 OpenAI 的案件作证。

  Stop AI 认为,Balaji 的死亡可能并非自杀而是被杀,被杀的缘由是为了阻止他说出 ChatGPT 版权问题的真相。

  Stop AI 由联合发起人 Sam Kirchner 和 Guido Reichstadter 领导,目前已经在 OpenAI 办公室外进行过抗议活动。当地时间周六下午, Stop AI 在科技公司 OpenAI 外举行活动,他们担心该公司的技术有几率会使 “人类灭绝”。他们设定了一个大胆目标,希望能获得美国 3.5% 人口(即 1100 万人)的支持。

  创始成员 Sam Kirchner 拥有机械和电气工程背景,而 Reichstadter 则曾担任珠宝商 20 年,并获得了物理和数学学士学位。其他小组成员也有一些技术背景:Finn van der Velde 拥有计算机科学学士学位,具体来说是人工智能,并离开了拉德堡德大学的人工智能硕士课程,“以从事人工智能安全工作”,正如他的 LinkedIn 个人资料所示。Derek Allen 会编程。Kirchner 表示,一名兼职小组成员丹尼斯目前正在攻读人工智能硕士学位。

  Stop AI 发起抗议和公民抵抗行动,目的是让公众了解到,尽管旧金山的人工智能科技公司承认通用AI存在导致人类灭绝的风险,但仍在推进相关研发。有专家甚至预测,通用AI可能在今年就会问世。他们强调,人工智能存在极大危险性,所谓的人工智能安全只是幻想,无法通过实验证明其不会产生危害人类的想法,这与人类曾经导致其他物种灭绝的情况类似。此外,通用AI还可能对民主制度造成永久性破坏,同时导致大规模失业,使许多人失去生活目标。

  对于人工智能的发展,业内看法不一。部分从事人工智能工作的人员认为,研发通用AI / 超级人工智能(AGI/ASI)能够在一定程度上帮助解决如癌症治疗、气候平均状态随时间的变化等难题。但 Stop AI 反驳称,在无法确保其永远安全、不会危及人类生存的情况下,进行此类研发毫无意义,毕竟从实验角度证明其安全性是不可能的。

  目前,关于通用AI的研发与限制争议不断,其未来走向备受社会各界关注。

  值得一提的是,截至目前,Stop AI 已经筹集了 6685 美元资金。

  “……我们正试图永久禁止通用AI(AGI)的发展,”Kirchner 在接受 The Register 采访时表示。“粗略地说,AGI 指的是在所有技术领域都比所有人类专家更强大的系统。”

  AI 大神杰弗里·辛顿 (Geoffrey Hinton)曾预测,未来 20 年内人工智能超越人类智能的可能性约为 50%。与其他人工智能反对者一样,Kirchner 也担心人类会失去控制。

  Kirchner 对人工智能发展的担忧并非个例。早在大语言模型爆发之前,埃隆·马斯克 (Elon Musk)在 2014 年就曾提到过,利用 AI,就像是在“召唤”恶魔......

  2014 年,马斯克在一次公开场合谈及人工智能的发展时表示:“我认为我们该对AI非常谨慎。如果让我猜一下我们最大的生存威胁是什么,那很可能就是这一个(AI)。”

  随着人工智能技术的加快速度进行发展,人们对其潜在影响的看法呈现出两极分化的态势,既有着深切的担忧,也不乏对其非消极作用的认可。许多人认为意识是极为复杂独特的现象,人工智能难以企及,它本质上只是进行统计计算的机器,缺乏感受、情感和理解能力,一切行为皆按程序执行,与人类拥有自由意志截然不同。尽管目前关于人工智能 “安全性” 的争论不绝于耳,但许多人对其安全的具体范畴仍感到困惑。

  当前,人们对AI的担忧大多分布在在两个方面。其一,AI生成虚假内容的能力可能带来严重危害。在政治领域,虚假信息本就泛滥,人工智能的介入可能使情况雪上加霜,进而引发法律问题,例如无辜者被误指犯罪,有罪者却借此获取不在场证明;在金融经济领域,也可能引发欺诈、敲诈勒索等问题。并且,AI对社会潜在危害的方式众多,许多仍有待发现。

  其二,人工智能可能会引起大规模失业。以好莱坞编剧罢工事件为例,编剧们担心自己会被AI生成的剧本替代,尤其是当他们过往的作品被用于训练人工智能引擎时。同样,艺术家们也忧心AI生成的图像和音乐将取代自己的创作。此外,像体育赛事摘要这类常规工作,几乎肯定会被人工智能接管。

  不过,人工智能也展现出了巨大的积极潜力。在医疗领域,AI可以通过对海量医疗数据的分析,帮助医生更准确地诊断疾病,预测疾病的发展的新趋势,甚至协助研发新的药物。例如,一些AI系统能快速识别医学影像中的异常,提高癌症等疾病的早期诊断率,为患者争取宝贵的治疗时间。

  在交通领域,无人驾驶技术作为人工智能的重要应用之一,有望大幅度提高交通安全性和效率。通过传感器和算法,无人驾驶汽车可以实时感知周围环境,做出更快速、准确的驾驶决策,减少人为失误导致的交通事故。同时,智能交通系统还能优化交通流量,缓解拥堵,降低能源消耗。

  在人工智能技术持续革新的当下,如何平衡其发展与潜在风险,成为全社会亟待思考的重要议题。

上一篇:国家海洋技能中心2025年考研初试成果查询时刻及复核公告
返回列表
下一篇:ST威创新注册软件著作权研发投入持续加码