AI艺术创作‌ 关于生成式 AI 的六个悬而未决的问题及预测

默认分类19小时前发布 admin
4,982 0
星河超算AI数字人

谷歌、微软和 现在都提出要保护其模型的用户免受潜在的法律诉讼。微软为其生成式编码助手 制定的赔偿政策,原则上将在法院解决此事时保护那些使用该软件的用户。微软首席执行官 Satya ‌ 表示:“我们将承担这一责任,让我们产品的用户不必为此担心。”

与此同时,新的授权协议也层出不穷。 已与 签署了一份为期六年的协议,以使用其图像。Adobe 声称其自己的图像制作模型 只接受了许可图像、Adobe Stock 数据集中的图像或不再受版权保护的图像的训练。不过,Adobe Stock 的一些贡献者表示,他们没有被征求过意见,而且对此并不满意。

怨恨情绪十分强烈。现在,艺术家们正在用自己的技术进行反击。一款名为“”的工具可以让用户以人类无法察觉的方式修改图片,但对机器学习模型来说却是毁灭性的,它会让模型在训练过程中对图片进行错误分类。网络媒体的共享和再利用规范有望发生重大调整。

预测:高调的诉讼将继续吸引人们的关注,但这不可能阻止公司建立生成模型。围绕道德数据集的新市场将会兴起,公司与创作者之间的猫鼠游戏将会继续上演。

03、AI 将如何改变工作?

我们早就听说人工智能正在取代我们的工作。这次的一个不同之处在于,白领 — 数据分析师、医生、律师和记者 — 看起来也面临风险。聊天机器人可以应对高中考试、专业医疗执照考试和律师资格考试。它们还能总结会议内容,甚至撰写基本的新闻报道。那么,留给我们的工作还有什么?事实远非如此简单。

许多研究人员否认大型语言模型的表现是真正智能的证据。但即便如此,对于大多数专业角色来说,这些模型所能完成的任务还远远不止这些。

去年夏天,宾夕法尼亚大学沃顿商学院研究创新的 Ethan 帮助波士顿咨询集团进行了一项实验,研究 对顾问的影响。该团队给数百名顾问布置了 18 项与一家虚构的制鞋公司有关的任务,如“针对服务不足的市场或运动提出至少 10 个新鞋创意”以及“根据用户划分制鞋业市场”。小组中有些人使用了 ,也有人没用。

实验的结果令人震惊:“使用 -4 的顾问在各方面的表现都远远优于未使用 -4 的顾问。在每个维度上都是如此。” 在一篇关于这项研究的博文‌中写道。

风险投资公司 Air 的创始人兼《人工智能现状报告》(State of AI ‌)团队负责人 说,许多企业已经在使用大型语言模型来查找和获取信息。对此他表示欢迎:“希望分析师能够成为一种人工智能模型,”他说。“这些东西基本上都是令人头疼的。”

他的观点是,将繁重的工作交给机器,可以让人们专注于工作中更有意义的部分。这种技术似乎还能提高员工的技能:早期的研究,比如 对顾问和其他编码员的研究表明,经验较少的人在使用人工智能后会得到更大的提升。(不过也有一些注意事项。 发现,过于依赖 GPT-4 的人变得粗心大意,当模型出错时,他们不太可能发现错误)。

生成式 AI 不仅能改变上述工作。图像和视频制作模型可以在没有人类插画师、摄影师或演员的情况下,制作出无穷无尽的图片和电影。2023 年美国编剧和演员的罢工表明,这将是未来几年的一个热点。

即便如此,许多研究人员认为这项技术总体上是提高工人的能力,而不是取代工人。毕竟,自工业革命以来,技术一直在为工作而生。随着旧的工作岗位逐渐消失,新的工作岗位也随之产生。Smith 说:“我强烈地感觉到,这是一种净积极因素。”

然而,变革总是痛苦的,净收益可能掩盖个别损失。技术变革也往往会集中财富和权力,加剧不平等。

写道:“在我看来,问题不再是人工智能是否会重塑工作,而是我们希望这意味着什么。”

预测:对大量失业的担忧将被夸大。但生成工具将继续在工作场所大量出现。角色可能会改变;我们可能需要学习新的技能。

04、AI 会带来哪些错误信息

AI艺术创作‌ 关于生成式 AI 的六个悬而未决的问题及预测

2023 年最热门的三张图片分别是教皇身穿 、特朗普被警察摔倒在地以及五角大楼爆炸的照片。所有这些都是假的,但都被数百万人看到并分享。

使用生成模型创建虚假文本或图像比以往任何时候都要容易。许多人警告说,错误信息将过载。 合作开展了一项研究,强调了其技术在假新闻活动中的许多潜在滥用。在 2023 年的一份报告中,它警告说,大型语言模型可用于大规模制作更具说服力的宣传品,而这种宣传很难被发现。美国和欧盟的专家已经表示选举面临风险。

拜登政府将人工智能生成内容的标签和检测作为其 10 月份人工智能行政令的重点,这并不令人意外。但该命令并没有从法律上要求工具制造商将文本或图像标注为人工智能的作品。而最好的检测工具也还没有好到可以信赖的程度。

本月达成一致的欧盟人工智能法案则更进一步。该法案的部分内容要求公司在人工智能生成的文本、图像或视频上打上水印,并向人们明确说明他们是在与聊天机器人互动。此外,《人工智能法案》还具有法律效力:这些规则将具有约束力,并对违规行为处以高额罚款。

美国还表示,它将对任何可能对国家安全构成威胁的人工智能进行审计,包括干预选举。 将这称之为伟大的进步。但是,即使是这些模型的开发者也不知道它们的全部能力:“政府或其他独立机构可以强迫公司在发布模型之前对其进行全面测试,这种想法似乎并不现实”。

问题在于:在一项技术被使用之前,我们不可能知道它被滥用的所有方式。“2023 年,有很多关于放慢人工智能发展速度的讨论,” 说。“但我们持相反的观点。”

除非这些工具被尽可能多的人以尽可能多的不同方式使用,否则我们不会让它们变得更好。他说:“我们不会了解这些怪异风险的细微表现方式,也不会了解哪些事件会触发这些风险。”

预测:随着使用的增加,新的滥用形式将不断出现。会有一些突出的例子,比如涉及选举操纵。

05、我们能否接受 AI 的成本?

生成式人工智能的开发成本,包括人力成本和环境成本,也需要加以考虑。隐形工人问题‌是一个公开的秘密:我们之所以能幸免于生成模型所能产生的最糟糕的结果,部分原因在于有大量隐蔽的(通常收入微薄的)工人为训练数据贴标签,并在测试过程中剔除有毒的、有时是创伤性的输出结果。这是数据时代的血汗工厂。

2023 年, 在肯尼亚使用工人的做法受到了《时代》和《华尔街日报》等大众媒体的关注。 希望通过建立一个过滤器来改进其生成模型,从而从用户那里隐藏仇恨、淫秽和其他令人反感的内容。但要做到这一点,它需要人们发现并标注大量此类有毒内容的例子,以便其自动过滤器能够学会识别它们。 雇用了外包公司 Sama,而后者则被指控在肯尼亚使用了低薪工人,这些工人几乎得不到任何报酬。

随着生成式人工智能成为主流关注点,人力成本将成为更突出的焦点,这将给建立这些模型的公司带来压力,要求它们解决世界各地受雇帮助改进其技术的工人的劳动条件问题。

另一个巨大的成本,即训练大型生成模型所需的能源,在情况好转之前还将继续攀升。今年 8 月,英伟达宣布 2024 年第二季度盈利超过 135 亿美元,是上年同期的两倍。其中大部分收入(103 亿美元)来自数据中心,换句话说,就是使用 英伟达硬件训练人工智能模型的其他公司。

英伟达首席执行官黄仁勋( Huang)表示:“需求非常大。”“我们正处于生成式人工智能的起飞阶段。”他承认存在能源问题,并预测这一热潮甚至会推动所部署的计算硬件类型发生变化。他说:“世界上绝大多数计算基础设施都必须高效节能。”

预测:公众对人工智能的劳动力和环境成本的认识提高,将给科技公司带来压力。但不要指望这两方面很快会有明显改善。

06、末日论会继续主导决策吗?

长期以来,人工智能领域一直暗流涌动,人们担心智能机器的诞生会带来灾难性的后果,甚至是世界末日。由于炒作达到了顶峰,再加上人工智能先驱 在 5 月份高调宣布对自己帮助建立的技术感到恐惧,使得这种情绪浮出水面。

AI艺术创作‌ 关于生成式 AI 的六个悬而未决的问题及预测

在 2023 年,几乎没有什么问题能像这个问题一样引发分歧。像辛顿和同为图灵奖获得者的 Yann LeCun 这样的人工智能名人都在公开场合大打口水仗,在社交媒体上互相攻击。

辛顿、 首席执行官山姆 – 阿尔特曼(Sam )等人建议,(未来的)人工智能系统应该有类似于核武器的保障措施。这些言论引起了人们的关注。但美国科学家联合会( of )核信息项目经理 Matt Korda 在今年七月与他人合写的一篇文章‌中,对这些“混淆不清的类比”及其引发的“媒体恐慌”表示谴责。

说,我们很难理解什么是真实的,什么是虚假的,因为我们不知道发出警报的人的动机是什么。“很多人因为这些东西而变得非常富有,而很多人正是那些要求加强控制的人,这看起来确实很奇怪。这就好像,‘嘿,我发明了一种非常强大的东西!它有很多风险,但我有解药’”。

有些人担心所有这些恐惧宣传的影响。深度学习先驱 Ng 在 X 上写道:“我对人工智能未来最担心的是,如果过度夸大的风险(比如人类灭绝)让科技游说者颁布了压制开源和压制创新的窒息性法规。”这场争论还将资源和研究人员从更直接的风险上引开,如偏见、工作动荡和错误信息。

谷歌颇具影响力的人工智能研究员 François 表示:“有些人推崇存在性风险,因为他们认为这对自己的公司有利,”“谈论生存风险既能凸显你的道德意识和责任感,又能转移人们对更现实、更紧迫问题的注意力。”

指出,有些人一方面敲响警钟,另一方面却在为自己的公司筹集 1 亿美元的资金。他说:“大可以说‘末日论’是一种筹资策略。”

预测:恐慌会逐渐平息,但对决策者议程的影响可能会持续一段时间。呼吁重新关注更直接危害的呼声将会继续。

仍然缺失:人工智能的杀手级应用

想想 差点就没出现。在 2022 年 11 月推出之前, 的联合创始人兼首席科学家 Ilya 并不看好 的准确性‌。公司里的其他人也担心它并没有什么进步。从本质上讲, 更像是混搭,而不是革命。它由 GPT-3.5 驱动,这是 几个月前开发的大型语言模型。但是,聊天机器人将一些引人入胜的调整 — 尤其是更会说话、更有针对性的回复 — 整合到了一个易于使用的软件包中。“它功能强大且方便,” 说。“这是人工智能领域第一次让人工智能之外的人看到人工智能的进步。”

引发的热潮还没有结束。 说:“人工智能是城里唯一的游戏。”“这是科技领域最大的事情,而科技是经济领域最大的事情。我认为,我们将继续为人工智能所能做的事情感到惊讶。”

不过,既然我们已经看到了人工智能的能耐,也许眼下的问题是它的用途。 在构建这项技术时并没有考虑到它的真正用途。研究人员在发布 时似乎是这么说的:想怎么用就怎么用。从那时起,每个人都在争先恐后地寻找答案。

“我发现 非常有用,” 说。“我经常用它来做各种乱七八糟的事情。”他说,他用它来查找某些单词,或者帮助他更清楚地表达自己的意思。有时,他还会用它来查找事实(尽管并不总是事实)。 的其他人则用它来制定度假计划,或者提供编码技巧或 IT 支持。

这些都很有用,但不能改变游戏规则。这些例子中的大多数都可以用现有的工具来完成,比如搜索。与此同时,据说谷歌内部员工对该公司自己的聊天机器人巴德(Bard)(现在由谷歌的 GPT-4 竞争对手 提供支持,于上个月推出)的实用性表示怀疑。“我仍在思考的最大挑战是:就帮助性而言,LLM 真正有用的是什么?”据彭博社‌报道,Bard 的用户体验负责人 Cathy Pearl 今年 8 月在 上写道。“比如真正有所作为。待定!”

没有杀手级应用,“wow”的效应就会逐渐消失。投资公司红杉资本( )的统计数据显示,尽管 、.ai 和 Lensa 等人工智能应用推出时病毒式传播,但这些应用的用户流失速度比 、 和 等现有流行服务更快。

说:“消费科技的法则依然适用。”“会有很多实验,很多东西在炒作几个月后就会死掉。”

当然,互联网的早期也充满了错误的开始。在改变世界之前,网络公司的繁荣以失败告终。今天的生成式人工智能总是有可能消声匿迹,被下一个大事件所取代。

不管发生什么,既然人工智能已经完全成为主流,那么利基问题就成了所有人的问题。正如 所说:“我们将被迫以前所未有的方式来解决这些问题。”

323AI导航网发布

© 版权声明

相关文章

星河超算AI数字人

暂无评论

暂无评论...