1月16日,OpenAI在其官网上发布了一篇博客,公布了其正在进行的“Democratic Inputs to AI”(AI的民主输入)资助计划的最新进展。该计划旨在通过民主方法决定人工智能管理的规则,并为此资助了来自全球的10个团队。同时,这篇博客总结了这些团队的创新点,并呼吁更多研究人员和工程师加入他们的工作。
在AI越来越先进和广泛使用的情况下,OpenAI认为,将公众纳入决定AI行为的过程能更好地符合人类价值观。为此,他们在2023年5月宣布了该计划,随后OpenA从来自近1000名申请人中选出了10个团队,并向他们各自提供了10万美元的资金,以设计、构建和测试使用民主方法决定AI管理系统规则的创意和工具是否可行。
OpenAI在这篇博客中插入了10篇报告,分别描述了这十个团队的成果。包括:
1.Case Law for AI Policy(AI政策案例法),其研究内容是创建一个强大的案例存储库,其中包含与人工智能(AI)交互场景相关的案例。这个存储库的目的是通过民主过程,也就是通过广泛的群众参与,包括专家、普通人和关键利益相关者,做出受到案例法启发的判断。案例法是一种法律判断的方法,通过参考过去的案例来指导和解决当前的问题。在这种情况下,他们试图通过引入民主参与的方式,使得这个案例法的判断更为全面和代表性。
2.Collective Dialogues for Democratic Policy Development(民主政策发展的集体对话),该项目通过集体对话,试图在广泛的参与者中促成有效的讨论,以便形成能够得到公众广泛支持的政策。
3.Deliberation at Scale:Socially democratic inputs to AI(规模化磋商:面向AI的社会民主输入),该项目通过由AI促进的视频通话,使小组进行民主磋商。
4.Democratic Fine-Tuning(民主微调),该项目团队通过与参与者进行对话,收集他们的观点和价值观,然后将这些信息整理成一个图形。这个图形被称为”价值观道德图”,它可能包含有关参与者对道德和价值的看法的信息。最终,这个图形可以用于微调人工智能模型,使其更好地符合社会的价值观和伦理准则。
5.Energize AI:Aligned-a Platform for Alignment(激活AI:对齐平台),该团队的研究目标是制定与大规模参与和“社区笔记”算法相对应的指南,以实现人工智能(AI)模型的对齐。在这里,“对齐”指的是确保AI模型的行为和决策与社会的价值观和期望保持一致。他们试图通过制定指南,引导开发过程,确保AI模型在大规模参与的背景下,并且使用“社区笔记”算法时能够对齐社会的期望。社区笔记可能是指一种共同编辑的方式,参与者通过记录和共享观点,帮助形成对AI行为的共识。
6.Generative Social Choice(生成社会选择),该项目团队使用“社会选择理论”理论来确定哪些观点是最具代表性和公平性的,然后将它们提炼成一个简洁的清单,以指导AI模型的行为。社会选择理论是一种研究如何在集体中进行决策的数学分支,旨在找到一种公平的方式,使得集体的决策能够代表各种不同的观点。
7.Inclusive.AI:Engaging Underserved Populations in Democratic Decision-Making on AI(包容型AI:未服务人群在AI民主决策中的参与),该项目通过一个平台——此平台具有分权治理机制,比如去中心化自治组织(DAO),来促使未服务人群参与与人工智能(AI)相关的决策过程。
8.Making AI Transparent and Accountable by Rappler(由Rappler使AI透明和负责),该团队通过在线和离线的方式将参与者连接在一起,以促使他们对复杂且具有极化倾向的主题进行讨论,促进对于社会中存在的具有争议性的议题的更深入和全面的理解。
9.Ubuntu-AI:A Platform for Equitable and Inclusive Model Training(Ubuntu-AI:公平和包容模型培训平台),该项目在促进LLM(长期短记忆)开发的同时,帮助创作者提供更多价值,并确保对非洲创意作品有更加包容的了解。
10.vTaiwan and Chatham House:Bridging the Recursive Public(vTaiwanChatham研究所:桥接递归公众),该项目使用适应的vTaiwan方法创建递归连接的参与式AI过程。在这个过程中,团队采用了vTaiwan的方法,”递归连接”则表示这个过程是通过反复的、循环的方式连接在一起的,意味着信息和意见可以在不同阶段进行反馈和调整。
总体而言,这些项目展示了OpenAI在AI发展中追求一种更加民主、透明、负责、多元和共识性的治理模式,以确保AI技术的发展符合广泛社会的期望和价值观。
随后,OpenAI总结了通过资助项目学到的一些关键经验,包括以下几个问题和观察:
公众意见的变化:团队发现公众意见经常发生变化,甚至每天都可能发生变化。为了捕捉这些变化,不同团队采用了多种方法,如创建聊天机器人、举办专家研讨会和使用投票令牌。
数字鸿沟:在数字和文化鸿沟仍然存在的情况下,团队面临着难以跨越这些鸿沟的困难。并且在线招募的参与者更可能持有对人工智能更积极的看法,而且由于语言和文化多样性,设计的工具可能在全球范围内的适用性受到限制。因此,需要谨慎处理这些差异,以确保在研究和决策中考虑到不同文化和语境的影响。
在极化群体中达成一致:在小群体中,当个别人对特定问题持有强烈意见时,达成妥协可能很困难。对此,团队采用了一些方法,如设计流程以找到在极化群体中强烈支持的政策建议。
达成共识vs.代表多样性:在试图代表一个群体时,要在达成共识和充分代表各种意见之间找到一种平衡可能会面临紧张关系。为了解决这一挑战,一些团队采用了数学理论,以平衡不同意见的权衡,同时确保代表性和公平性。
对AI治理未来的期望和担忧:一些参与者对于AI参与政策制定感到紧张,并希望在民主过程中使用AI时能够透明。然而,一些团队发现在协商后,参与者对公众引导AI行为的能力更具希望。
这篇博客的最后,OpenAI透露了接下来的行动计划,提出了设计一个系统的目标,该系统能将公众意见纳入对强大AI模型的引导中,并致力于解决上述挑战。具体来说,他们将组建一个“Collective Alignment”团队,负责实施系统以收集和编码公众对模型行为的意见,并与外部顾问和资助团队合作,运行试点项目,将资助的原型纳入对模型的引导中。
发表回复