去年12月,麦肯锡发布了《2021年人工智能现状》报告,数据显示,AI的采用率正在持续增长,57%的新兴经济体企业选择使用AI技术,高于2020年的45%。IBM调查也针对全球AI采用指数的主题,发布了相关报告,IBM认为,全球AI采用是渐进式的,但长期趋势很明显,调研的7502家企业中,80%表示会采用AI。
随着AI在商业中越来越普及,一面在有效推动企业进步;另一面,日益重视的数据安全、隐私问题,也让其备受争议。
近期,Zoho全球AI研究负责人Ramprakash Ramamoorthy就这两者的关系表达了自己的看法。
越来越多的用户开始关注隐私“边界”的问题
去年到今年,多家知名企业发生了数据泄露事件。以Meta为例,今年2月,Meta与Facebook用户长达十年的隐私诉讼落下帷幕,这4名用户指控Facebook在他们退出社交媒体网站后,仍会追踪他们的网络活动,对用户隐私权构成侵犯。根据庭外和解协议,Meta同意支付9000万美元的赔偿金。3月,爱尔兰数据保护委员会认为在多次大规模个人数据泄露事件中,Meta未能证明及时有效采用了安全应对策略,违背了GDPR规则,最终被罚1700万欧元。
越来越多的用户开始关注应用与自身隐私边界在哪里的问题。但另外一方面,大众并不排斥对他们更有利的数据利用,根据全球数据与营销联盟(GDMA)发布的《2022年什么是消费者真正所想》报告,在全球16个国家和地区中,53%的消费者认为在合理范围内,可以提供部分个人数据。
Zoho认为,企业与用户在数据问题上之所以有“冲突”,归根到底是标准问题。AI对于传统行业具有新兴性质,缺乏系统的治理体系,如果用道德约束共识,难免会出现双方认知不一致的情况。
在Zoho看来,企业应该为AI人工智能技术运用的必然性做好准备,对用户提供透明便捷、可快速访问查询的隐私政策。如果企业没有相关规定,则应该尽快编写并及时上架官网。
减少AI偏见
尽管拥有技术先进性,但在当下,AI技术和人类一样,也会产生偏见。当人工智能接受了人类传递来数据,就不可避免地产生偏见,简单可以分为6种情景:
· 历史偏见:在收集用于训练机器学习算法的数据时,获取历史数据通常从容易的地方开始,由于这些数据的更新问题,很容易将历史数据存在的偏见引入。
· 样本偏见:当训练数据不能准确反映模型的实际使用情况时,就会出现样本偏见。通常情况下,一个群体的代表性或者过高,或者偏低。
· 标记偏见:训练机器学习算法所需的大量数据需要标记才能有用。然而,人们标记数据的方式千差万别,标记的不一致会给系统带来偏见。
· 聚合偏见:通常,聚合数据以简化数据或以特定方式呈现数据。无论是在创建模型之前还是之后,这都可能导致偏见。
· 确认偏见:确认偏见是人们倾向于相信能证实其现有信念的信息,或者丢弃不符合现有信念的信息。当用户渴望某个结果时,他们可能会无意中对 AI 系统进行编程以产生他们期望和希望的结果。
· 评价偏见:当一个模型被评估和优化时,它是根据某些基准来衡量的,这些基准可能在他们的现实表示中存在缺陷。
偏见是学习的自然结果,无法完全消除,但却可以管理。
以Zoho为例,在AI 训练的数据收集和处理阶段之间,设置人为保护措施。在 Zoho,员工与AI一起梳理公开可用的数据,清除任何个人身份数据的痕迹,一方面是为了保护用户,其次是为了确保只有关键信息可以通过。
偏见是一个不断发展的概念,尤其随着数据访问的改善。持续的人工智能培训、定期的扫描更新以及负责任的承诺,将大大减少用户的偏见。
Zoho一直将用户的数据安全与隐私保护放在首位,上周我们发布了《Zoho CRM安全白皮书》,透明展示了Zoho的安全策略、加密安全管理体系、隐私安全管理体系等等,扫描下方二维码,可免费获取阅读,Zoho将为企业创造更安全的信息环境,助力企业增长。