江门网站建设多少钱,曲靖网站设计公司,阿里巴巴国际站可以做网站吗,中国城乡建设网这篇文章于 2024 年 7 月 29 日首次出现在 The New Stack 上。人工智能正处于软件行业的完美风暴中#xff0c;现在马克扎克伯格 #xff08;Mark Zuckerberg#xff09; 正在呼吁开源 AI。 关于如何控制 AI 的三个强大观点正在发生碰撞#xff1a; 1 . 所有 AI 都应该是开… 这篇文章于 2024 年 7 月 29 日首次出现在 The New Stack 上。人工智能正处于软件行业的完美风暴中现在马克·扎克伯格 Mark Zuckerberg 正在呼吁开源 AI。 关于如何控制 AI 的三个强大观点正在发生碰撞 1 . 所有 AI 都应该是开源的以实现共享和透明。 2 . 保持 AI 闭源并允许大型科技公司控制它。 3 . 制定 AI 使用法规。 有几个事实使这场辩论变得棘手。首先如果你有模型的源代码你对模型的行为方式完全一无所知。AI 的开放性需要的远不止提供源代码。其次AI 有很多不同的风格可用于解决广泛的问题。从用于欺诈检测和定向广告的传统 AI 到用于创建聊天机器人的生成式 AI这些聊天机器人从表面上产生类似人类的结果使我们越来越接近人工生成智能 AGI 的最终和可怕目标。最后上面列出的控制 AI 的想法在改进软件方面都有良好的记录。 在本文中我将讨论 开源的真正本质以及为什么该行业必须为 AI 模型重新定义它。 理想主义者的常见论点和逻辑缺陷他们高度关注单一用例。 创新者的权利和公众的权利。 关于在正确的模型上使用适当控件的想法。 了解不同的观点 在深入研究之前让我们更详细地讨论上面列出的不同观点。 观点 #1 – 所有 AI 都应该是开源的以实现共享和透明 这来自于 AI 对透明度的推动。 开源是共享和改进软件的一种行之有效的方法。当用于传统软件时它提供完全透明。在本文中我将使用术语 conventional software 来指代与 AI 无关的软件。例如操作系统、服务、可重用库或完整应用程序。开源软件推动了软件行业的突飞猛进。 观点 #2 – 保持 AI 闭源并允许大型科技公司控制它 闭源或专有软件是指发明可以保密远离竞争对手以实现经济利益最大化的想法。对于开源理想主义者来说这听起来完全是邪恶的;然而它更像是一种哲学选择而不是存在于善与恶的光谱上的选择。大多数软件都是专有的这本身并不是坏事 - 它是竞争和健康生态系统的基础。选择闭源道路是任何创造新事物的创新者的基本权利。问题变成了如果你在没有透明度的情况下运营那么负责任的 AI 有什么保证呢 观点 #3 – 制定 AI 使用法规 这来自推动监管的立法者和民选官员。基本思想是如果公共职能或技术如此强大以至于不良行为者或不负责任的管理可能会伤害公众那么应该任命一个政府机构来制定控制措施并执行这些控制措施。有一种观点认为人工智能领域的现任和现任领导者也希望进行监管但原因不那么纯粹——他们想冻结由他们主导的竞争环境。我们将主要关注公共产品领域。 开源的真正本质 在生成式 AI 出现之前在数据中心运行的大多数软件都是传统软件。如果您有传统软件的源代码则可以准确确定它的作用。精通适当编程语言的工程师可以查看代码并确定其逻辑。您甚至可以修改它并更改其行为。开源或开源代码是另一种说法 - 我将提供确定行为和改变行为所需的一切。简而言之开源软件的真正本质是提供了解软件行为并对其进行更改所需的一切。现在使用 AI 模型如果你有模型的源代码你对模型的行为方式完全一无所知。要使模型完全开放您需要训练数据、模型的源代码、训练期间使用的超参数当然还需要训练后的模型本身它由存储模型知识的数十亿很快是数万亿参数组成也称为参数内存。现在一些组织只提供模型将其他所有内容留给自己并声称该模型是“开源的”。这是一种被称为 “公开清洗” 的做法通常被开放和闭源社区视为不诚实。我希望看到一个新术语用于部分共享的 AI 模型。也许是 “partially open model” 或 “model from an open washing company”。当涉及到完全共享的模型时还有最后一个问题。假设一个组织想要做正确的事情并分享有关模型的所有内容 - 训练数据、源代码、超参数和训练的模型。好吧除非您对其进行广泛测试否则您仍然无法确定它的具体行为。确定行为的参数内存不是人类可读的。同样该行业需要一个不同的术语来描述完全开放的模型。与“开源”不同的术语“开源”只应用于非 AI 软件因为模型的源代码无助于确定模型的行为。也许是“开放模式”。 常见参数 让我们看看你在互联网上找到的一些常见论点这些论点只支持使用前面描述的其中一种观点。这些人是他们观点的热情捍卫者但这种热情可能会蒙蔽判断力。 论点 (封闭的 AI 支持者声称大型科技公司有办法防范潜在的危险和滥用。因此AI 应该保持私有远离开源社区。 反驳 大型科技公司确实有办法防范潜在的滥用行为但这并不意味着他们会明智地这样做甚至根本不这样做。此外这不是他们的主要目标。他们的主要目标是为股东赚钱 - 这永远是优先的。 论点 那些认为 AI 可能会对人类构成威胁的人喜欢问“你会开源曼哈顿计划吗 反驳 这显然是治理的论点。然而这是一个不公平和不正确的类比。曼哈顿计划的目的是在战时通过使用放射性材料产生核聚变来制造炸弹。核聚变不是一种可以应用于不同任务的通用技术。你可以制造炸弹也可以发电——就是这样。成分和结果对公众来说非常危险因此应监管所有方面。AI 则大不相同。如上所述它有不同的口味和不同的风险。 论点 开源 AI 的支持者表示开源促进了科学的共享提供了透明度并且是防止少数人垄断强大技术的一种手段。 反驳 这在很大程度上是正确的但并不完全正确。开源确实提供共享。对于 AI 模型它只会提供一些透明度。最后“开放模式”是否会阻止少数人垄断他们的权力还有待商榷。要大规模运行像 ChatGPT 这样的模型您需要的计算能力只有少数公司能够获得。 多数人的需求超过了少数人的需求 在《星际迷航 II可汗之怒》中斯波克死于辐射中毒。斯波克意识到必须修理飞船的主引擎以方便逃生但机舱被致命的辐射淹没。尽管存在危险斯波克还是进入了充满辐射的房间进行必要的维修。他成功地恢复了曲速驱动器使企业号能够到达安全距离。不幸的是瓦肯人不能免疫辐射。他对柯克船长的临终遗言解释了他行动背后的逻辑“许多人的需求超过了少数人或一个人的需求。这是完全合理的逻辑它必须用于控制 AI。有些型号会对公众构成风险。对于这些模式公众的需求超过了创新者的权利。 所有 AI 都应该开源吗 我们现在准备将所有内容联系在一起并回答本文标题的问题。首先让我们回顾一下到目前为止建立的公理 开源应该仍然是一种选择。 开放模型不如开源的非 AI 软件透明。 Close Source 是创新者的权利。 无法保证大型科技公司会正确控制他们的 AI。 公众的需求必须优先于所有其他需求。 上面的 5 个项目符号代表了我试图阐明的有关开源、闭源和法规的所有内容。如果你相信它们是真的那么“所有 AI 都应该开源吗”这个问题的答案是否定的因为它不会控制 AI闭源也不会。此外在一个公平的世界中开源和开放模型应该仍然是一种选择而关闭源代码应该仍然是一种权利。我们可以更进一步讨论整个行业可以采取哪些行动来有效控制 AI 确定对公众构成风险的模型类型。由于控制信息聊天机器人或危险资源自动驾驶汽车而具有高风险的模型应该受到监管。 应鼓励组织将其模型作为完全开放的模型共享。开源社区需要加紧行动防止或标记仅部分共享的模型。开源社区还应该将可用于对模型进行评级的测试放在一起。 如果封闭模型不会对公众构成风险则仍应允许使用。大型科技公司应该加紧开发自己的一套控制措施和测试并为其提供资金和共享。也许这是大型科技公司与开源社区密切合作解决常见问题的机会。