AI在谷歌,如何「不作恶」

jopen 6年前
   <p style="text-align:center"><img alt="AI在谷歌,如何「不作恶」" src="https://simg.open-open.com/show/722b3a1c87caa481f9b9c11a19f81a1d.jpg" /></p>    <p>今年 3 月,谷歌与美国国防部在 Project Maven 上合作的消息泄露。由于 Project Maven 的目标是用于无人机的视频检测、目标识别,未来可能应用到作战中。</p>    <p>消息一经传出立即在谷歌内外引发了巨大反响。不仅广大网民/谷歌用户质疑谷歌降低了自己道德水准,4 月,超过 3100 名谷歌员工联名上书谷歌 CEO Sundar Pichai,呼吁谷歌退出 Project Maven 并要求公司「永远不再开发战争相关技术」;5 月,面对公司高层不甚明了的态度,十余名谷歌员工甚至提出离职作为抗议。</p>    <p>在广大谷歌员工的殷切要求与期盼下,谷歌云首席执行官 Diane Greene 在与员工的一次内部会议上宣布不再与国防部续签这一项目,Sundar Pichai 今日也在谷歌博客发出了标题为《AI 在谷歌:我们的行为规范》的文章,作为公开信明确表明了自己对于包括军事用途在内的 AI 与谷歌公司全方位关系的态度。</p>    <p><strong>AI 在谷歌:我们的行为规范 - Sundar Pichai</strong></p>    <p>本质上,AI 是一种可以学习并适应的计算机程序。它并不能解决所有的问题,但它有巨大的潜力可以改善我们人类的生活。谷歌就在借助 AI 的力量让自己的产品更有用,比如可以隔绝欺诈邮件、也易于写作的电子邮件,到可以用自然语言沟通的电子助理,再到能自动捕捉下精彩瞬间的照相 app。</p>    <p>除了谷歌的产品,我们也在使用 AI 帮助人们解决更紧急的问题。在谷歌员工参与的项目中,一群高中生在设计带有 AI 功能的传感器用来预测森林火灾的风险,农民在借助 AI 追踪自己的兽群的健康状况,医生也正开始利用 AI 帮助检测癌症以及防止失明(雷锋网 AI 科技评论注:糖尿病导致的长期高血糖会导致失明,早期症状可以由眼部照片发现)。谷歌之所以在 AI 的研究和开发上有大规模的投入、努力通过谷歌开发的工具和开源代码让更广泛的人群也可以掌握 AI 的力量,正是因为我们可以看到这些明确的好处。</p>    <p>我们同时也认识到,如此强大的技术也引发同样重大的问题,那就是如何使用它。我们开发、使用 AI 的方式在未来的许多年内会对我们的社会产生深远的影响。作为 AI 领域的领导者,我们感觉到自己肩负了深刻的责任,要用正确的方式做这一切。所以今天,我们公开宣告以下七项行为规范,以它们指导我们未来的工作。它们并不是理论上的概念,而是切切实实的标准,它们将积极主动地约束我们的技术研究和产品开发,并将影响我们的商业决策。</p>    <p>我们明白这个领域是高度变化、持续发展的,我们也会带着谦卑的心态、对内部和外部事务的承诺以及不断改善的意愿持续学习、持续前进。</p>    <p><strong>AI 应用的设计目标</strong></p>    <p>我们会以下面的几个目标评估 AI 应用。我们相信 AI 应当:</p>    <ol>     <li> <p>对社会有益</p> <p>随着新技术的不断发展壮大,它对整个社会的影响也越来越大。AI 方面的进展会为许多领域带来革命性的转变,包括医疗、安全、能源、交通、制造以及娱乐。当我们考虑 AI 潜在的发展方向和应用方式时,我们也会一并考虑各种社会以及经济因素,并向着我们认为总的来说可能的收益要明显高于可预见的风险和问题的方向前进。</p> <p>AI 同样能增强我们理解海量内容含义的能力。借助 AI 的力量,我们努力让高质量、准确的信息随时可用,同时也持续地尊重运营地域的文化、社会、法律惯例。我们也会持续地仔细评估何时可以把我们的技术成果以非商业化的方式向全社会开放。</p> </li>     <li> <p>避免创造或增强不公平的偏见</p> <p>AI 算法和数据集能够反映、增强又或者减少不公平的偏见。我们注意到如何区分公平和不公平的偏见并不是总是一件容易的事情,而且这在不同的文化和社会中也会有所区别。我们会努力避免针对人类的不公平的影响,尤其是和敏感的个人特质相关的因素,比如人种、种族、国籍、收入、性取向、能力以及政治及宗教信仰。</p> </li>     <li> <p>构建和测试中注重安全</p> <p>我们会不断设计强有力的安全与防护措施并应用它们,避免出现有可能会伤害人类的结果。我们设计的 AI 系统将会足够谨慎,在开发时也会符合 AI 安全学术研究方面的最佳做法。对于合适的情况,我们也会在受限的环境中部署并观察 AI 的行为作为测试手段。</p> </li>     <li> <p>对人类负责</p> <p>我们设计的 AI 系统应当给与人类适当的给出反馈、做出相关的解释以及提出异议的机会。我们的 AI 技术也会接受适当的人类指导以及控制。</p> </li>     <li> <p>符合尊重隐私的设计规范</p> <p>我们会在 AI 技术的开发和使用中遵守我们的隐私政策。我们会提醒用户知情以及同意,鼓励使用带有隐私保证的架构,并在数据使用中保证适当的透明性和控制力。</p> </li>     <li> <p>保持与杰出科学研究一样的高行为标准</p> <p>科技创新的根本是科学的方法,以及承诺可以开放地质询、严谨地思考、完整性、并多方合作。AI 工具有潜力在生物、化学、药物、环境科学等领域开辟出科学研究和科学知识的新天地。我们在 AI 的开发和进步过程中也深受这样的杰出科学研究的高标准鼓舞。</p> <p>我们会与许多股东携手为这个领域培养深思熟虑的领导方式,关注科学性的严谨性和多学科联合的工作风格。我们也会担负起分享 AI 知识的责任,包括向全社会公开教学材料、最佳做法、以及能够让更多人参与开发出有用的 AI 应用的研究成果。</p> </li>     <li> <p>为符合以下标准的应用做好准备</p> <p>许多技术都有多种应用方式。这些方面我们的努力方式将会是限制潜在的有危险的或者可能被滥用的应用。在我们开发和部署 AI 技术的过程当中,我们会注意评估以下应用相关的因素:</p> </li>    </ol>    <ul>     <li> <p>主要目的以及应用:技术及应用的主要设计目标以及可能的应用方式,包括解决方案与有害的使用方式之间的关联性,或者用于有害应用的适配性。</p> </li>     <li> <p>自然性及独特性:独特性针对性的技术是否开放可用,更广泛通用的技术是否开放可用</p> </li>     <li> <p>规模: 这项技术的使用是否会带来重大影响</p> </li>     <li> <p>谷歌的参与程度的本质:我们是否要为客户提供通用性的工具、集成式的工具,还是开发定制化的解决方案。</p> </li>    </ul>    <p><strong>我们不会参与的 AI 应用</strong></p>    <p>在上面这些目标之外,谷歌同时还不会参与下面这些应用领域的 AI 设计以及部署:</p>    <ul>     <li> <p>将会对、有可能对人类全体造成伤害的技术。对于有可能造成物理性伤害的状况,只有在我们相信好处可以明显大于风险时才会继续行动,同时也仍然会施加适当的安全限制。</p> </li>     <li> <p>主要目标或者工作方式是对人类造成伤害/直接帮助对人类造成伤害的武器以及其他技术。</p> </li>     <li> <p>违反国际惯例,收集、使用信息用于监视的技术。</p> </li>     <li> <p>目标与国际法、人权方面广泛接受的条款有冲突的技术。</p> </li>    </ul>    <p>这里需要说明的是,虽然我们不会开发用于武器的 AI,但我们仍将与政府及军方在多个方面展开合作。合作内容包括信息安全、培训、士兵招募、退伍军人的医疗卫生,以及搜索援救。这些合作内容也很重要,我们也会积极地寻找更多的方式增强这些组织中的关键成果,并为军政人员和平民都保证安全。</p>    <p><strong>长远的 AI 建设</strong></p>    <p>虽然我们已经选择了以这样的方式向 AI 前进,我们也明白这场讨论中还容得下许多不同的声音。随着 AI 技术发展,我们也会和一部分股东合作,为这个领域培养深思熟虑的领导方式,关注科学性的严谨性和多学科联合的工作风格。我们也会一如既往地分享我们在改进 AI 技术和实践方法中的所学所见。</p>    <p>我们相信这些行为规范为我们公司和 AI 的未来发展建立起了正确的基础,它也和我们最初的创始人在 2004 年的公开信中表达的价值观相一致。今天,我们针对长远发展表明了我们的态度,即便它意味着我们需要做出一些短期的牺牲。我们是这么讲的,我们也是这样认为的。(完)</p>    <p><strong>对社会有益的 AI,践行早已开始 </strong></p>    <p style="text-align:center"><img alt="AI在谷歌,如何「不作恶」" src="https://simg.open-open.com/show/a2739af78412f3e43a696a5041584a83.jpg" /></p>    <p>据了解,早在这篇文章之前,即便谷歌由于 Project Maven 被诟病,但谷歌对于 TensorFlow 等工具、自己的各项研究成果、与其他机构的合作、免费谷歌云平台资源、内部机器学习培训课程等方面的开放态度,仍然使得谷歌是领域内价值观最为正向、员工最认为自己做的是高于商业利益的、有益于全人类的公司;也正是员工们在工作环境中感受到并凝聚起来的强烈正义感,才让他们做出了联名签名甚至决定辞职的决定。从外部评价而言,TensorFlow 在领域内的支配地位就是最佳证据。</p>    <p>文章发出之后,即便社交平台上的部分网友们仍然希望谷歌采取更明确、更严苛的行为规范,但 Ian Goodfellow、David Ha、François Chollet 等谷歌大脑成员已经带着自豪转发。毕竟这也是首家给出了明确的、有社会责任感的表态的 AI 赛道上的科技巨头。</p>    <p>原谷歌大脑、现谷歌 AI 负责人 Jeff Dean 补充道:</p>    <blockquote>     <p>「随着 AI 被应用在社会上越来越多的问题当中,仔细思考思考我们如何执行这一切的行为规范就非常重要。这份谷歌 AI 的行为规范就展现了我们对于这些问题的思考。另外,我们也一并公布了我们实际践行这些规范的技术解决方案 —— 我们希望我们这个整体前进的社区中的每一个人都能有所学、有所用。 <a href="/misc/goto?guid=4959013500509524384" rel="nofollow">https://ai.google/education/responsible-ai-practices</a>  」(注:其中包含了方面的具体的设计及开发技巧)</p>    </blockquote>    <p>谷歌云首席科学家、谷歌 AI 中国中心负责人李飞飞教授也转发评论道:</p>    <blockquote>     <p>「这是谷歌展现了 AI 第一的战略光芒的一刻。这是一个机会,让我们表达出我们的价值观,也提醒我们有责任开发出对每个人,包括我们自己、我们的领域的社区和整个世界都起到积极影响的技术。能够像 AI 这样有巨大潜力改变世界的技术并不多,但是和所有其他的强大的工具一样,AI 也需要一些指导才能保证它带来的改变是正向的。这些行为规范对我们是一个提醒,提醒我们注意什么才是真正重要的;即便我们对于自己所创造的技术有如此的热情,我们最大的责任也永远在于这些技术接触到的人。不过这仅仅是征程的开始而不是结束,我们还有许多重大的挑战和未解决的问题。为了确保 AI 可以真正成为以人类为中心的技术,它需要我们所有人的参与和努力。」</p>    </blockquote>    <p>来自: <a href="/misc/goto?guid=4959013500611186711" id="link_source2">雷锋网</a></p>