本周早些时候,我的一个朋友给我发短信问我对 ChatGPT 的看法。我并不惊讶他很好奇。他知道我写的是关于 AI 的文章,并且是那种紧跟在线趋势的人。我们聊了一会儿,我问他:“觉得 ChatGPT 怎么样?” 他回答说:“好吧,今天早上我用它写了一个还算不错的 Excel 宏,节省了我几个小时的工作时间”——我的下巴都掉了。

对于上下文:这是一个工作涉及与数据库相关的相当多的人,但我不会将他描述为特别有技术头脑的人。他从事高等教育工作,在大学学习英语,但从未正式学习过编码。但他在这里,不仅在玩弄一个实验性的 AI 聊天机器人,而且在访问几天后就可以用它更快地完成工作。

“我问了它一些问题,又问了它一些,把它放到 Excel 中,然后进行了一些调试,”他是这样描述这个过程的。“它并不完美,但比谷歌搜索更容易。”

ChatGPT 等工具让 AI 以前所未有的方式公开访问

像这样的故事在本周不断积累,就像倾盆大雨前的第一批雨点。在社交媒体上,人们一直在分享有关使用 ChatGPT 编写代码、起草博客文章、撰写大学论文、编写工作报告,甚至改进聊天游戏的故事(好吧,最后一个绝对是开玩笑的,但是AI 增强 rizz 的前景仍然诱人)。作为一名报道这个领域的记者,基本上不可能跟上正在发生的一切,但有一个突出的总体趋势:人工智能正在成为主流,我们才刚刚开始看到将对世界。

人工智能中有一个我特别喜欢的概念,我认为它有助于解释正在发生的事情。它被称为“能力过剩”,指的是 AI 的隐藏能力:研究人员尚未开始研究的系统中潜在的技能和才能。您之前可能听说过 AI 模型是“黑匣子”——它们是如此庞大和复杂,以至于我们无法完全理解它们如何运作或得出具体结论。这在很大程度上是正确的,也是造成这种悬垂的原因。

“今天的模型比我们想象的要强大得多,而我们可用于探索 [它们] 的技术还很幼稚,”人工智能政策专家 Jack Clark在他最近一期的时事通讯中描述了这个概念。“那些因为我们没有考虑过测试而不知道的功能呢?”

能力过剩是一个技术术语,但它也完美地描述了人工智能进入公共领域时正在发生的事情。多年来,研究人员一直在努力,以比商业化更快的速度推出新模型。但在 2022 年,大量新应用程序和程序突然让普通用户可以使用这些技能,而在 2023 年,随着我们继续扩展这个新领域,情况将开始发生变化——变化很快。

正如 ChatGPT 所展示的那样,瓶颈始终是可访问性。这个程序的骨架并不是全新的(它基于 GPT-3.5,这是 OpenAI 今年发布的一种大型语言模型,但它本身是从 2020 年开始对 GPT-3 的升级)。OpenAI 之前曾将 GPT-3 的访问权限作为 API 出售,但该公司提高模型自然对话能力的能力,然后将其发布在网络上供任何人玩,从而将其推向了更多的受众。无论 AI 研究人员在探索模型的技能和弱点方面多么富有想象力,他们永远无法与整个互联网的大量和混乱的智能相媲美。突然之间,悬挑是可以访问的。

同样的动态也可以在 AI 图像生成器的兴起中看到。同样,这些系统已经开发多年,但访问受到各种方式的限制。不过今年,像 Midjourney 和 Stable Diffusion 这样的系统允许任何人免费使用该技术,突然间 AI 艺术无处不在。这在很大程度上要归功于 Stable Diffusion,它为公司提供了开源许可证。事实上,在 AI 世界中这是一个公开的秘密,每当一家公司推出一些新的 AI 图像功能时,它很可能只是 Stable Diffusion 的重新包装版本。这包括从病毒式传播的“神奇头像”应用程序 LensaCanva 的 AI 文本到图像工具,再到MyHeritage 的“AI Time Machine”。下面都是相同的技术。

不过,正如这个比喻所暗示的那样,能力过剩的前景不一定是好消息。除了隐藏的和新兴的能力,还有隐藏的和新兴的威胁。而这些危险,就像我们的新技能一样,几乎不胜枚举。例如,大学将如何适应人工智能撰写论文的激增创意产业会因生成人工智能的普及而受到重创吗?机器学习是否会引发垃圾邮件海啸,永远毁掉网络?AI 语言模型无法区分事实与虚构,或者 AI 图像生成器将女性和有色人种性别化的已证实偏见又如何呢??其中一些问题是已知的;其他人被忽略了,但更多的人才刚刚开始被注意到。随着 2022 年的兴奋逐渐消退,可以肯定的是 2023 年将包含一些粗鲁的觉醒。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。