
随后,作者提出并阐释了四项监管设计原则。第一项原则是防止为老牌公司建立反竞争的监管护城河,创业精神仍应是创新的核心。监管解决方案不应妨碍由众多参与者组成的竞争性人工智能生态系统的发展。如果DeepMind和OpenAI这两家领先的人工智能公司在20年后它们还能保持这种竞争地位,那应该是因为其有能力提供安全和变革性的人工智能,而不是因为法规造成了根深蒂固的垄断。美国联邦贸易委员会可以明确人工智能公司反竞争并购的指导原则,以表明其支持竞争的立场,鼓励广泛的创新和经济增长。第二项原则是重点解决现有法律中的明显漏洞,以缓解人们对人工智能带来的生存风险的担忧。作者认为,从存在风险的最大问题入手,才是支持开发值得信赖的人工智能的正确方式。原因有三:首先,生存风险的现实已经吸引了全球和美国政治两派的政策制定者。人工智能监管是一个独特的、可以吸引两党支持的政治问题,但如果决策者从缺乏类似共识的问题入手,这种支持就会被削弱。其次,即使存在的风险很小,也值得关注。例如,出于同样的原因,美国国家航空航天局近年来每年花费1.5亿美元来定位和追踪可能威胁地球的大型小行星。第三,从解决最严重的危害入手,并在必要时调整方法,这将有助于防止过度监管。法律只是监管的一个方面,规范、市场和架构作为对立法和行政规则制定的自下而上的补充,在规范人工智能的开发和部署方面同样有约束效果。舒默提出的“人工智能洞察论坛(AI Insight fora)”是国会与政府、民间社会和私营部门思想领袖之间的一系列对话,其重点应放在制定具体的技术保障措施和管理流程保障措施上,以降低存在的风险。美国国家标准与技术研究院的《人工智能风险管理框架(AI Risk Management Framework)》是一份不具约束力的政策文件,除其他最佳实践外,还推荐了加强问责制的组织结构。作者建议国会要求超过一定规模或风险阈值的人工智能公司任命一名首席人工智能安全官,参与管理大型企业或政府实验室尖端通用人工智能(Artificial General Intelligence,AGI)研究的人员需要获得人工智能安全认证,类似于航空航天制造商的AS9100安全标准或传染病病原体研究的生物安全等级(Biosafety Level,BSL)认证。第三项原则是确保社会能够从人工智能中获益。政策制定者在认真对待生存风险的同时,也不应忽视确保社会能够收获人工智能的巨大潜在利益。从教育到医疗保健,到科学发现,再到促进自由世界的利益,现代生活中几乎没有人工智能无法改善的方面,人工智能已经在帮助推进可能会产生核聚变解决方案的研究,或确定治疗罕见和致命疾病的新药物,我们应避免实施错误监管,而导致在有机会充分领略其潜力前,就已经牺牲了其中的一些好处。第四项原则是推进特定行业监管的“速赢”。在国会于未来几个月内建立新防护栏作用的同时,政府可以着手在人工智能方面行使现有的监管权力。防止人类或技术造成意外或故意伤害的法律不会因为涉及人工智能算法而消失。因此,联邦机构制定并推进实施针对特定行业的人工智能法规,改进其对现有法规适用方式的指导十分重要。例如,2019年2月,特朗普总统发布了题为“保持美国在人工智能领域的领导地位”的行政令,以指示联邦机构制定人工智能监管计划,但截至2022年12月,41个主要机构中仅有5个完成了这项命令,只有一个机构,即卫生与公众服务部,提出了一份详尽的计划。国会应明确时间表和每个机构应努力实现的广泛目标来强制推进这一进程,如果联邦机构缺乏一批对如何在其主题领域监管人工智能有清晰认识的专家,国会应采取措施加强人才队伍建设,并酌情扩大监管能力。而就其本身而言,行政部门可以在人工智能监管方面取得一些“速赢”。例如,消费品安全委员会可以根据用户覆盖范围、资金支持、训练数据规模、模型复杂程度等因素,强制达到一定规模的大型语言模型(Large Language Model,LLM)公开某些信息,以便更好地告知消费者与LLM互动的风险以及模型的局限性。