AI伦理‌ 外媒 | 伦理护栏对于使生成AI为医疗保健服务发挥作用至关重要

默认分类1天前发布 admin
4,991 0
ChatGPT国内版

生成AI领域,伦理护栏是一个热门话题。由于政府监管不足,企业和领导层需要为用户与生成AI的交互创建一个安全的环境。

迄今为止,最大的问题之一是数据的“幻觉”,或者说数据的不准确性。当缺乏充足的经验的用户过度依赖生成AI工具时,这些主要问题就会变得明显。

公司的副总裁Edwin Pahk以“清洁数据”为理念运营公司,并认为生成AI必须像正确性产生的答案一样重视数据来源的合作。他认为,正确的答案和对数据使用的双向理解是成功的生成AI平台的基础。

我们采访了Pahk,谈论他对数据治理、AI工具的伦理标准、伦理护栏和数据合规性的关注。

AI伦理‌ 外媒 | 伦理护栏对于使生成AI为医疗保健服务发挥作用至关重要

Q.请谈谈你对清洁数据理念的关注。

A.

算法的可靠性只取决于它们所依赖的数据。通过与数据来源建立良好的关系,并确保透明的数据收集实践,AI模型可以建立一种相互有益的合作关系,促进准确和无偏差的AI输出。

多个数据来源的合作使AI系统能够从多元化的视角获得洞察,避免偏见和歪曲的表达。清洁数据还包括从专家见解中创建新的合成数据,因此您可以通过提供额外的信息和填补现有数据集中的空白,显著提高数据质量。

Q.让我们谈谈AI工具的伦理标准。你说AI工具需要被训练只从同意的来源收集数据。公司如何做到这一点?

A.

AI伦理‌ 外媒 | 伦理护栏对于使生成AI为医疗保健服务发挥作用至关重要

为了训练只使用同意数据的AI模型,主要方法是实施严格的数据收集实践并获得明确的同意。该过程通常包括以下步骤:

首先,清楚地传达数据收集的目的和范围,提供关于数据将如何使用的透明度。

其次,寻求个人或组织的知情同意,确保他们理解其中的含义,并愿意分享其数据以实现指定的目的。

第三,建立健全的数据管理协议,确保数据安全处理并符合隐私法规。

第四,定期审核和更新同意协议,允许个人在需要时撤回同意。通过遵守这些实践,AI模型可以通过使用仅从提供明确同意的来源获得的数据进行训练,确保数据合规性和伦理合规性。

323AI导航网发布

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...