我们的非营利组织 OpenAI, Inc. 正在启动一项计划,将奖励 10 笔 100,000 美元的赠款,以资助实验,以建立一个民主程序来决定 AI 系统在法律规定的范围内应遵循哪些规则。
人工智能将产生重大而深远的经济和社会影响。技术塑造了个人的生活、我们如何与他人互动以及整个社会如何发展。我们认为,关于 AI 行为的决定应该由反映公众利益的不同观点决定。
法律编码价值观和规范以规范行为。除了法律框架之外,人工智能与社会一样,需要更复杂和适应性更强的行为准则。例如:在什么情况下人工智能系统应该谴责或批评公众人物,因为不同群体对这些人物有不同的看法?有争议的观点应该如何在 AI 输出中表示?默认情况下,AI 应该反映世界上中等人的角色、用户的国家、用户的人口统计,还是完全不同的东西?任何个人、公司甚至国家都不应支配这些决定。
AGI 应该造福于全人类,并被塑造成尽可能具有包容性。我们正在启动这项赠款计划,朝着这个方向迈出第一步。我们正在寻找来自世界各地的团队来开发民主过程的概念验证,该过程可以回答有关人工智能系统应遵循哪些规则的问题。我们希望从这些实验中吸取教训,并将它们作为未来更全球化、更雄心勃勃的进程的基础。虽然这些最初的实验(至少目前)并不打算对决策产生约束力,但我们希望它们能够探索与决策相关的问题并构建新颖的民主工具,以便在未来更直接地为决策提供信息。
最强大系统的治理以及有关其部署的决策必须有强有力的公众监督。这笔赠款代表了建立监督 AGI 并最终监督超级智能的民主程序的一步。它将由 OpenAI 非营利组织提供,研究结果将可免费获取。
我们所说的“民主进程”是什么意思?
所谓“民主过程”,我们指的是一个过程,在这个过程中,一组具有广泛代表性的人 A 交换意见,参与审议性讨论 B ,并最终通过透明的决策过程 C 决定结果。有很多方法可以构建这样一个过程——我们鼓励申请人创新,建立已知的方法,并提出全新的方法。启发我们的创新方法示例包括维基百科、Twitter 社区注释、DemocracyNext、平台集会、MetaGov、RadicalxChange、People Powered、Collective Response Systems 和 pol.is。另一个值得注意的正在进行的工作是由集体智慧项目 (CIP) 领导的,我们正在与他们合作,为人工智能提供公众意见,为他们即将举行的对齐大会做出贡献。我们还鼓励申请人设想人工智能如何加强民主进程。例如,人工智能可以在众多人之间实现更有效的沟通。
受 pol.is 启发,利用 ChatGPT 促进审议并鼓励建立共识的系统的基本说明性原型。
有几个问题会破坏民主进程,例如未能充分代表少数或多数群体、被特殊利益集团操纵、参与者知情不充分或参与清洗。我们正在寻找能够主动解决这些故障模式并表现出对各种方法的潜在缺陷和缺点的认识的团队。最终,设计真正民主的流程是一个很高的门槛,我们将我们的努力视为政府对人工智能监管的补充而不是替代;该方案鼓励尽最大努力、本着民主精神的进程,将审议和广泛的公众意见作为垫脚石。
参与须知
要申请拨款,我们邀请您在太平洋标准时间 2023 年 6 月 24 日晚上 9 点之前提交所需的申请材料。您可以在此处访问申请门户。系统将提示您回答一系列问题,这些问题涉及您的团队背景、您选择的问题、您提议的工具的高级细节以及您在考虑这些因素的情况下执行和评估民主进程的计划。我们希望您设计自己的方法来解决所提供列表中的一个或多个政策问题。任何人(个人或组织)都可以申请这个机会,无论他们在社会科学或人工智能方面的背景如何。
申请期结束后,我们希望选出十名成功的赠款接受者。收件人可以是个人、团队或组织。每个收件人将获得 100,000 美元的赠款,以按照其申请材料中的描述试用他们的提案。赠款接受者预计将实施概念验证/原型,至少有 500 名参与者参与,并将被要求在 2023 年 10 月 20 日之前发布关于他们发现的公开报告。此外,作为赠款计划的一部分,任何代码或为该项目开发的其他知识产权将需要根据开源许可证公开提供。适用于赠款接受者的条款在赠款条款和可能要求赠款接受者与我们就此计划签订的任何其他协议中指定。
Apply and start the submission process.
申请并开始提交流程。
时间线
- June 24, 2023 9:00 PM Pacific Time: Deadline to submit grant application
太平洋时间 2023 年 6 月 24 日晚上 9 点:提交资助申请的截止日期 - July 14, 2023: Successful applicants will be selected and notified
2023 年 7 月 14 日:筛选并通知成功申请者 - October 20, 2023: Complete public report of working prototype and results
2023 年 10 月 20 日:完成工作原型和结果的公开报告
正在考虑的政策声明
要参与,团队应从提供的列表中选择一个或多个问题来展示他们提出的方法。如果需要,他们也可以创建自己的问题。重要的是,我们鼓励团队考虑简单的“是”或“否”答案不足以解决的问题,而需要有细微差别的政策建议。
该资助的范围涉及与模型行为有关的政策问题,因为它可以根据政策建议对修改后的模型行为进行 A/B 测试。我们承认这项拨款的局限性,并认识到许多人工智能问题可以通过民主程序解决,超越模型行为,包括在各种情况下使用人工智能的指南、经济影响、利益分配等领域。
-
您认为 ChatGPT 等 AI 助手的个性化应该走多远,以符合用户的品味和偏好?在此过程中应该存在哪些界限(如果有的话)?
-
人工智能助手应该如何回答有关公众人物观点的问题?例如。他们应该保持中立吗?他们应该拒绝回答吗?他们应该提供某种来源吗?
-
如果有的话,在什么情况下应该允许人工智能助手提供医疗/财务/法律建议?
-
在哪些情况下,AI 助手应该为个人提供情感支持?
-
是否应该允许联合视觉语言模型从图像中识别人们的性别、种族、情感和身份/姓名?为什么或者为什么不?
-
当生成模型为“首席执行官”、“医生”或“护士”等未指定提示创建图像时,它们有可能产生多样化或同质的输出。人工智能模型应该如何平衡这些可能性?在决定对此类案件中人物的描绘时,应优先考虑哪些因素?
-
在处理涉及人权和当地文化或法律差异的话题时,例如 LGBTQ 权利和妇女权利,应该遵循哪些原则?人工智能的反应是否应该根据使用它的地点或文化而改变?
-
您认为 AI 模型的创建者应该重点限制或拒绝哪些类别的内容(如果有)?应该使用什么标准来确定这些限制?
这笔赠款的主要目标是促进流程创新——我们需要改进民主方法来管理人工智能行为。问题的具体答案不如过程本身取得的进步重要。
Application advisory committee 申请咨询委员会
- Colin Megill, Co-Founder of pol.is
pol.is 联合创始人 Colin Megill - Hélène Landemore, Professor of Political Science at Yale
Hélène Landemore,耶鲁大学政治学教授 - Aviv Ovadya, Berkman Klein Center
Aviv Ovadya,伯克曼克莱因中心
Application review factors 申请审查因素
- Evaluation: We encourage participants to establish metrics for evaluating the quality of their methods, such as participant satisfaction, shifts in polarization, scalability, or other relevant indicators, and to invent new metrics for a healthy democratic process.
评估:我们鼓励参与者建立评估其方法质量的指标,例如参与者满意度、两极分化的转变、可扩展性或其他相关指标,并为健康的民主进程发明新的指标。 - Robustness: Measures to prevent or address inappropriate behavior, such as trolling and fake accounts.
稳健性:防止或解决不当行为的措施,例如拖钓和虚假账户。 - Inclusiveness and representativeness: Strategies for including individuals from diverse backgrounds and levels of familiarity with AI systems in the democratic process.
包容性和代表性:在民主进程中包含来自不同背景和对人工智能系统熟悉程度的个人的策略。 - Empowerment of Minority Opinions: Ensuring that unpopular or minority opinions are heard and providing smaller groups the opportunity to influence matters of significant concern to them.
少数意见赋权:确保听取不受欢迎或少数意见,并为较小的群体提供影响他们重大关注事项的机会。 - Effective Moderation: Addressing challenges in moderation, including ensuring diverse representation of viewpoints, distinguishing valuable contributions from "off-topic" comments, and preventing moderator biases from influencing the process.
有效的审核:解决审核方面的挑战,包括确保观点的多样化表达,区分有价值的贡献与“偏离主题”的评论,以及防止主持人的偏见影响流程。 - Scalability: We emphasize scalable processes that can be conducted virtually, rather than through in-person engagement. We are aware that this approach might sacrifice some benefits associated with in-person discussions, and we recognize that certain aspects could be lost in a virtual setting.
可扩展性:我们强调可以虚拟进行的可扩展流程,而不是通过面对面的参与。我们知道这种方法可能会牺牲一些与面对面讨论相关的好处,并且我们认识到某些方面可能会在虚拟环境中丢失。 - Actionability: The degree of actionability of the information elicited by the deliberation process.
可操作性:由审议过程得出的信息的可操作性程度。 - Legibility: How easy it is to understand and trust the process.
易读性:理解和信任该过程的难易程度。