在“不作恶”的基础上,AI必须合乎道德且负责任

04/27/2023

技术变革日新月异。 AI的长期应用不仅取决于新技术的社会接受度,还取决于AI开发者是否愿意接受整个社会。生成式AI是AI领域的最新突破,与许多前沿技术一样,生成式AI也面临着诞生初期的挑战。

社会为AI设定的标准高于对人类的标准。AI仅仅做好事是不够的,它还不能做坏事,并且不允许出现“人为错误”。


AI已然是一大福音

撇开媒体的关注和头条新闻不谈,AI技术一直充当着“幕后工作者”,确保我们拥有一个更美好、更健康和更公平的未来。

AI能够循序渐进地帮助终结全球饥饿问题

让人人都能吃饱的想法不仅令人向往,而且很快就会变成现实。与大多数新事物引进一样,对于在控制世界粮食供应这样复杂的任务中AI究竟应该发挥多大的作用,人们还踟蹰不前。尽管犹豫不决,但AI在拯救农作物方面已取得长足进展,有越来越多的食物被摆上人们的餐桌。AI可以在作物的整个种植过程产生积极影响,从早期识别杂草和发现新的种植地点,再到识别因疾病死亡的作物,都有AI的身影。即使是作物收获时,AI也能帮助识别哪些作物人类可以食用,以及它们在食物链中的位置。

AI在应对气候变化中的作用

数据在地球的未来中扮演着重要的角色。现在,机器学习被用于预测天气,预测是否/何时会发生自然灾害。这些AI预测模型要使用历史天气数据进行训练,才能得到可靠的预测结果:即下一次风暴将何时袭来,以及它可能对该地区产生的影响。有人担心,在AI投入部署之前进行的训练耗能巨大,担心这是否会导致温室气体排放的增加。根据国际能源署(IEA)的数据,目前全球电力总量的1%就足以满足全球数据中心的能源需求。为确保降低能耗,一个方法是不断提高硬件能效。这样,服务需求的增加才不会导致电力需求的增加。

帮助世界交流

认识翻译的重要性非常重要。如果没有翻译,世界上大多数人将无法阅读使用不熟悉或遭遗忘的语言编写的文本。这可能导致重要历史和文化事件的丢失,或者重要的科学和医学发现仅为特定群体使用。语言将世界各地的人们联系在一起,但翻译不当会导致信息获取的不公平。通过使用各种无偏见数据集加以训练的聊天机器人和其他对话式AI支持的平台,AI能够帮助解决这一问题。从世界各地使用不同语言和方言、代表不同人口特征、年龄、宗教和文化的人群收集数据,有助于训练计算机,从而拓宽世界重要沟通的渠道。


解决问题:AI责任设计

最近诸多公开示例表明,生成式AI模型会产生幻觉和编造事实,这对于虚构写作等创意工作可能无伤大雅,但如果有人在寻找事实或通过搜索引擎查找本地最新信息,便不再合适。

因为这些大型语言模型是使用当前可用的书面数据(主要来自互联网)进行训练的,所以很难过滤掉最终导致错误结果或在性别和政治偏好等领域产生偏见的源数据。这是由于人类天生就有偏见或是内容创建者的偏见(因为互联网访问等一系列因素),无论我们如何努力也无济于事。

无论是个人还是公司,目前都必须通过一个过程来了解目前有缺陷的生成式AI带来的潜在风险。人们对此反应不一,有的将生成式AI视为未来的工作工具,有的则彻底拒绝和禁止。 无论如何,生成式AI的实施可能会对社会产生严重影响,在负责任的情况下,可能产生积极影响,但在没有适当保护措施的情况下,允许幻觉和错误渗透到用于影响日常生活的AI中,则可能产生消极影响。

设计AI for Good

为响应负责任AI的号召,我们需要一种被称为责任设计(Responsibility by Design)的方法,类似于隐私专家所倡导的隐私设计(Privacy by Design)概念。这就需要从一开始就将负责任AI实践嵌入到技术、业务实践和物理基础设施的设计规范中。这件事提前做比事后再做要好得多。责任设计可能是立法规定的(我们已看到欧盟的首次尝试),但可能只是因为这样做有意义。

我们相信,未来我们会看到,为证明AI是负责任的,人们将更少地关注算法和训练模型本身,而更多地关注基础数据集、人类反馈,并增加为输出提供的审查和护栏。

为了让模型训练得更像人类,最好的方式是整合来自具有不同背景的真实世界经验的人的反馈。 如果反馈多样且广泛,则会减少模型的幻觉和偏见。

AI需要平等地服务所有人

AI需要帮助人类。最理想的情况是,帮助所有人。 以负责任的方式构建的AI会更加成功,并且可以使所有人受益,无论其种族、性别、地理位置或背景如何。大型语言模型的构建通常以占大部分网络内容的英语数据为基础,但世界上仅不到20%的人将英语作为第一语言或第二语言。语言输入的限制不仅在当今模型中造成巨大的语言鸿沟,而且还会造成文化鸿沟。

众所周知,如果您没有在基础训练数据中得到体现,AI就很有可能无法为您服务。构建合乎道德的AI,能够回应、尊重每个人,让每个人获益,这意味着那些参与最初训练和后来改进AI的人,不仅需要反映AI最终服务的人群的多样性,而且那些构建AI的人也需要认识到自己在影响周围人群方面发挥的关键作用。


澳鹏在AI for Good中的作用

澳鹏在“责任设计”中发挥着重要作用,因为我们拥有一支多元化的“百万强”AI训练专家团队,他们遍布170多个国家/地区,使用235多种语言和方言。这成为合乎道德和多样化的AI供应链的基石,有助于确保AI在不同社会和文化中发挥作用并具有相关性。

我们从事的是数据业务。数据获取和数据准备是AI生命周期中的关键环节,包括数据的采集、标注和评估。我们为世界各地的公司创建数据集,如果没有全球众包人员的支持,我们就无法做到。这些众包人员从事数据采集和标注,有了他们,AI和机器学习解决方案才得以实现。这就是我们建立道德规范和公平薪酬等计划的原因所在,我们要确保我们数据的来源和管理的公平性。我们公司承诺提供合乎道德标准的AI,为此,我们制定了我们所谓的《众包资源道德规范》。彼此照护方能交付尽可能高质量的数据。

随着我们接受生成式AI,我们看到,我们AI训练专家的工作从简单的标注任务扩展到参与模型评估和最终用户体验咨询。他们的工作对于确保这些技术进步不仅能够在发达国家得到采用,而且能够在发展中国家得到采用至关重要,这有望有助于缩小当前的技术鸿沟。

我们的众包人员已经在改进生成式AI系统中发挥了不可或缺的作用,我们现在正为AI系统的学习保驾护航。

如今,我们怀揣更大的希望,也确实看到了人们在反思新技术对社会影响方面做出的重大努力。 正如科技先驱Bill Joy所说:“我们必须鼓励我们所期待的未来,而不是试图阻止我们所恐惧的未来。” 当我们探索生成式AI服务人类的可能性时,我们致力于成为AI供应链中合乎道德、负责任的一员,为AI for Good提供支持。

澳鹏为您的模型搭建及AI部署提供全生命周期的数据支持,包括数据采集、标注、模型测试以及数据集。