这就是为什么您必须仔细查看什么是理想模式和什么是不良模式。因此问题不仅在于您使用的数据存在偏差还在于算法检测和识别模式的方式。人工智能系统可能会做出不公平的决定因为有时会在不知不觉中在系统的设计和部署方式中不考虑公平性标准。您必须问问自己系统使用哪些标准进行优化。哪些特征已包含在建模中哪些未包含在建模中为什么要做出这些选择要解决的问题究竟是如何定义的什么是框架假设你想要个人工智能系统来预测犯罪行为的风险以便做出假释决定。
因为我们没有关于谁犯罪的数据但我们确
实有关于被捕者的数据所以我们将该数据用作代理即预测功能。但是这样的代理是不准确的。过度简化是危险的。个预测功能。但是这样的代理是不准确的。过度简化是危险的。个预测功能。但是这样的代 美国企业电子邮件列表 理是不准确的。过度简化是危险的。新技术的负面影响通常只有在大规模应用时才会显现出来。是否有可能预测新技术的影响编辑精选历史乌克兰战争年和平还是进步升级历史选举时间这些口号不起作用天文学自然科学也必须去殖民化好吧我们正忙着描绘未来。
围绕伦理方面的意识正在迅速提高这确实
是该领域的热门话题。那进行得很快。十年前是该主题的先行者之当时很难发表关于偏见的研究。那不是个严肃的话题。现在它已列入所有主要会议的议程。同时重要的是要认识到人工智能领域并不能解决所 电子邮件线索 有的伦理问题。你的问题在哪里许多问题最终归结为我们共同价值观的问题以及我们如何将它们形式化即将它们转化为明确定义可衡量的标准。我们认为什么是公平和公正这些不是开发人员和程序员可以单独回答的问题因为我们需要与社会科学律师哲学家和伦理学家合作。
没有回应