目录:
在所谓的军备竞赛中,科技公司一直在积累大量的用户数据,以磨练为其应用程序和平台提供动力的人工智能算法。 到目前为止,当他们的做法将他们推向法律和道德上的灰色地带时,他们基本上能够逃脱责任。
对于使用AI算法的公司来说,这听起来像是个坏消息,这得益于宽松的数据收集法规(以及冗长,无聊和含糊的服务文档条款)。 一些人担心更严格的规则会阻碍人工智能在许多应用程序和领域中的创新和部署。 其他人则认为,新指令将为AI应用程序变得更加可靠和可信赖奠定基础。
无论如何,人工智能行业正在GDPR时代发生重大变化。
数据所有权和隐私
数字推理的创始人兼总裁蒂姆·埃斯特斯(Tim Estes)表示:“ GDPR对AI来说意义重大,因为它需要我们对收集和使用数据的方式进行不同的思考。” “长期以来,科技公司一直坚称,为了从其产品和服务中获得价值,您必须放弃数据。”
以前,公司仅需要获得用户的模糊同意才能收集各种数据。 Estes说:“人工智能帮助保持了对大数据的炒作,这是企业收集和挖掘所有可用数据的另一个原因。” “许多公司已经开始实施AI来分析其数据,只是因为他们认为应该这样做,而没有考虑到对用户隐私或数据所有权的影响。”
GDPR的最基本前提是数据属于用户。 根据GDPR,公司将必须披露所收集信息的全部范围,使用方式以及如何保护和防止未经授权的访问。 新规则将迫使AI公司更加谨慎地收集其收集的数据,而不是从事肆意ho积,处理和共享用户信息。
被遗忘的权利
GDPR使用户有权要求公司从其服务器中删除所有数据。 对于AI公司而言,这并不适合,因为AI公司对保留尽可能多的用户数据以执行诸如预测趋势和用户行为之类的任务有着浓厚的兴趣。
GrowthChannel首席执行官Maryna Burushkina表示:“归根结底,GDPR取决于您如何收集和管理数据,而不一定取决于您拥有多少数据。” “大多数公司将面临的主要困难不是选择加入,而是更多的是管理数据,向用户传达数据的使用以及允许用户有机会删除它。”
如果AI公司仍然希望获得这些见解,他们将不得不采取额外的步骤来匿名化其数据。 但是其他挑战还面临着已经拥有大量用户数据存储的公司。
“在GDPR之下,如果公司要擦除特定的PII,则必须确保在任何地方都擦除它,” Octopapi首席执行官Amnon Drori说。 当您的数据分散在不同的服务器上并以不同的结构化和非结构化格式存储时,要手动执行这可能是一项艰巨的任务。
例如,当删除用户的信用卡号(一定是敏感信息)时,公司将不得不查看存储该信息的每个报告,数据库,数据库对象和ETL。 “有时我们为同一项目看到不同的元数据名称:例如,'信用卡号','抄送号',信用证号','卡号','信用卡号'…列表继续,然后继续。” Drori说,通常不知道在哪里查找,过程可能要花费数周甚至数月,并且像许多手动过程一样,很容易出现人为错误和不准确的情况。
GDPR也将增加人为错误处理数据的成本。 Drori说:“这就是为什么今天有这么多公司寻求自动解决方案来准确管理其元数据的原因。” 也许具有讽刺意味的是,人工智能本身可以成为这方面的解决方案。 基于AI的元数据管理工具可以扫描组织内的所有数据源,并巩固不同工具和数据源之间的关系。
解释权
GDPR关于AI的最重要部分之一就是所谓的“解释权”。 该指令指出,公司必须通知用户“自动决策的存在”,并向他们提供“有关所涉及逻辑的有意义的信息,以及这种处理对于数据主体的意义和预期的后果”。
基本上,这意味着用户必须知道何时直接或间接地接受AI算法,并且应该能够挑战那些算法做出的决定,并要求证明结论的来源。 这将是AI行业将面临的最大挑战之一。
深度神经网络是当代AI算法背后的主要技术,是复杂的软件结构,可通过分析大量数据并查找相关性和模式来创建自己的功能规则。 随着神经网络变得越来越复杂,它们的行为变得越来越难以分解。 通常,甚至连工程师都无法解释他们的AI算法做出决策背后的原因。
被称为“黑匣子”问题的AI算法难以解释,使得很难在法庭判决,执法,贷款和信贷申请,招聘,医疗保健以及其他关键领域中实施它们。 但是,由于没有任何法律手段,人工智能公司几乎没有动力使其人工智能算法更加透明,特别是当它们与商业秘密紧密相关时。
现在,GDPR将要求AI公司负责其算法做出的决策。
Radware安全研究员Pascal Geenens说:“作为GDPR的一部分,组织有责任以人类语言清楚地描述处理方法,同时征求受试者的同意。” “随着深度学习的发展,数据科学家无法描述神经网络推理背后的确定性性质,这种描述可能变得更加复杂且难以解释。”
Geenens说,GDPR基本上是要让处理数据的人员负责。 因此,如果您使用机器学习算法进行处理,则必须以某种方式设计它们,使您能够解释它们代表您做出的决策。
少数组织正在尝试开发使AI更加透明的技术。 其中最突出的是DARPA的Explainable AI(XAI),这是一个旨在使基于AI的决策易于理解的研究项目。
外包人工智能
GDPR还将影响向第三方提供其数据的组织。 这样的公司的一个突出例子是Facebook。 在Cambridge Analytica丑闻中,这家社交媒体巨头未能阻止数据挖掘公司收集和滥用8700万用户的数据。 但是GDPR也将对外包其AI功能并将其数据提供给AI提供者的公司产生影响。
“虽然许多人认为AI提供商与其他服务提供商一样,只是提供技术以换取金钱补偿,但事实是,AI提供商也建立了业务合作伙伴关系,以此为基础来发展和发展他们的技术,”首席技术官Estes说。来自数字推理的主管。 这意味着AI提供者可能希望保留客户的数据,以进一步训练其自己的算法并在其他领域中使用它。
例如,帮助医疗机构发现症状模式并改善诊断的AI提供程序可能会遇到改善其专有算法的数据集。 然后,AI公司可能希望利用数据来改进其用于其他类型患者护理的算法,以发展其功能来帮助其他医疗保健提供者。 根据GDPR,将负责负责数据的医疗保健组织以应对AI提供者的任何不道德使用行为。 Estes认为,关键是企业要寻找相信拥有算法而不是数据的AI供应商。
Estes说:“ GDPR将迫使企业更加关注如何使用数据,何时使用数据,将数据存储在哪里以及在项目完成后会发生什么。” “这意味着与AI提供商合作,帮助他们定义数据所有权的界限,并实施保护用户信息的策略,同时不妨碍其帮助AI算法成功发展的方式。”
GDPR会阻碍AI创新吗?
我们与会的专家认为,尽管新法规将挑战AI公司当前采用的做法和习惯,但这也将迫使他们寻找创新的新方法,并保持对隐私和道德标准的尊重。
GrowthChannel的Burushkina说:“随着GDPR法规的生效,所有主要的软件公司都在采取必要的措施,不仅确保合规性,而且还进行创新和创新,以寻找市场上的新机会。”
Octopai的Drori说:“创新不会受到GDPR的阻碍,而是会受到指导和激励。” 同时,GDPR也将催生新的业务和技术,以帮助组织实现并维持GDPR的合规性。
GDPR制定的标准实际上可能有助于弥合AI驱动服务的提供商和用户之间不断扩大的信任鸿沟。 Estes相信GDPR将使AI提供者和实施其技术的人对如何使用数据资源以及在何处使用数据源承担更多责任,并促使他们将用户置于利润之上。 他说:“归根结底,人工智能提供商应该只需要拥有算法(而不是数据)即可创新其功能和解决方案。”