Skip to content

ChatGPT 横空出世,你准备好了吗?

OpenAI 推出 ChatGPT 时,曾语重心长地説它「太危险」,这句警世之语当初被认为只是行销话术,如今 ChatGPT 的身影已经随处可见。这是一种多功能自动文本产生系统 (ATG),产出的作品仿若真人写作。虽然目前仍在测试阶段,却已经有数十种前所未见的应用方式,其中一些更是远超出当初的设想,例如指示 ChatGPT 模拟 Linux Shell 的一般运作,或通过美国知名学府宾大华顿商学院的入学考。

难怪各种溢美之词都将 ChatGPT 捧上天。无数新创公司都渴望取得这套技术的授权,以进行各式各样的应用,例如模拟穿越时空与古人对话、探讨历史文献、学习其他语言、产生健身计画和撰写餐厅评论,各种可能任你想像。

然而,这些技术突破也让有心人士有机可趁,破坏力显而易见。只要看前车之监,不难想像步步进逼的问题:深伪 (deepfake) 技术产生的影片和音讯技术已经让人穷於应付,一旦人工智慧大量伪造消息,届时人类社会面对如海啸般来袭的假新闻,将毫无招架之力。

OpenAI 市值数十亿的发迹史

OpenAI 在 2015 年以非营利组织形式成立,由奥特曼 (Sam Altman)、提尔 (Peter Thiel)、霍夫曼 (Reid Hoffman) 和马斯克 (Elon Musk) 等众多创投大咖筹资共十亿美元帮助组织运作。OpenAI 自命奉行「无私精神」的初衷,主张 AI「应为个人意志的延伸,奉行自由的精神,应该广为普及,人人可用。」

翌年,OpenAI 推出首个公测版的 OpenAI Gym 强化学习平台。2018 年,马斯克辞去该公司的董事一职,理由是 OpenAI 与其特斯拉 (Tesla) 的事业有潜在利益冲突。2019 对 OpenAI 是个忙碌的一年,OpenAI 成立了「有限获利」的营利子公司 (OpenAI LP),与非营利性质的母公司 OpenAI Inc 区别,微软也对其注资十亿美元。随後,OpenAI LP 也宣布授权商用产品的计画。

2020 年,OpenAI 正式推出文字产生器 GPT-3,可用於「整理法律文件的重点、为客服谘询提议回覆内容、建议电脑程式码,还可以用文字玩角色扮演。」OpenAI 还在同年推出了商用 API。

「着实令人惊艳。」新创公司创办人 Arram Sabeti 在与 ChatGPT 系统互动後,曾撰文表示:「各家的 AI 语言系统我都试过了,ChatGPT 的逻辑最完整贯通。只要写下提示,系统就会猜测後续内容,自行合理造句。我叫系统写出了五花八门的文本,有歌曲、故事、新闻稿、吉他六线谱、访谈、散文和技术手册,我又喜又惧,好似窥见了未来。」

2021 年,OpenAI 推出文字转影像产生器 DALL-E,次年推出 ChatGPT,再度引起媒体热烈报导。ChatGPT 聊天用户端是以 GPT-3.5 为基础打造而成,这也是 GPT 目前最新的版本。2023 年 1 月,微软与 OpenAI 宣布将继续合作进行更深入的长期研究,且预计将投入数十亿美元资金。後来微软在 2 月推出了基於 ChatGPT 的次世代 Bing 搜寻引擎。

「在我看来,ChatGPT 擅长产生直逼真人撰写的文本。」Brandie Nonnecke 博士向 Engadget 表示。她是美国加州大学柏克莱分校 CITRIS 政策实验室 (CITRIS Policy Lab) 主持人,也是技术政策研究 (Technology Policy Research) 副教授。她说:「读起来就像真人写的一样。有一次我写作卡关,就用 ChatGPT 来厘清论述,还蛮有帮助的。」

话虽如此,Nonnecke 也点出 ChatGPT 爱瞎掰的缺点。「系统会引用根本不存在的文章,」她补充。「现阶段虽然写出来的东西很逼真,但还有很大的改进空间。」

什麽是「生成式 AI」?

OpenAI 在 ATG 领域并非一支独秀。「生成式 AI」(或简称 gen-AI) 是指利用机器学习演算法,根据训练语料库中经过标记式的范例资料库,产生新的内容,不论文字、影像、音讯或影片都可以。这可说是典型不受监督的强化学习系统,而类似系统已用於训练 Google 的 AlphaGo、网路上常见的歌曲与影片推荐引擎,以及驾驶辅助系统。对比 ATG,有一些模型的训练方向不同,是旨在以渐进方式,将更高解析度的随机点状图案转换为影像,比如 Stability AI 的 Stable Diffusion 或 Google 的 Imagen 等,而包含 ChatGPT 在内的 ATG 系统,则会从自己的训练资料中取出文字段落并混编,产出几可乱真但仍嫌平庸的文章。

「这套系统经过巨量文本训练。」Peter Krapp 博士向 Engadget 指出:「产生的作品离不开输入资料的平均水准,就是平凡无奇,绝非卓尔不凡、辞藻华美或旷世之作。注定就是差强人意,大概就落在人类语言表达的整体平均水准。」Krapp 博士是现任美国加大尔湾分校的电影暨媒体研究 (Film & Media Studies) 教授。

如今,生成式 AI 已成为一门大生意。虽然近期有一些夸张的事件站上头版,比如 Stable Diffusion 开发者因为擅自从 Meta 抓取训练资料而吃上官司,或是 ChatGPT 通过医学执照考试 (没错,不只考上华顿商学院),但也有不少名列《财富》杂志五百大企业 (Fortune 500) 的公司,包含 NVIDIA、Meta、Amazon Web Services、IBM 和 Google,都在悄悄地利用生成式 AI 来创造营收。他们已将 AI 进行各种应用,从改善搜寻引擎结果和提议程式码,到撰写行销和广告内容,无所不包。

ChatGPT 的成功之钥

Krapp 博士解释,早在六七零年代,人类便已开始尝试让机器具备沟通能力,语言工作者是应用先驱。「他们发现,若用特定方式来建立对话模型,便能在一定范围内达到沟通效果。」他说明。「比如,只要知道怎麽和刻板印象中的治疗师对话,就能帮电脑建立一套模式,让电脑模拟治疗师的口吻。」Eliza 聊天程式就是这样诞生的,更成为了隐藏於热门 Linux 文字编辑器 Emacs 中的自然语言处理 (NLP) 彩蛋。

这些发展自早期技术的新系统,如今已用来翻译高档餐厅菜单、提供手机数位助理功能,还可胜任客服与人交谈。问题是,这些 AI 系统要能执行以上功能,必须经过专门训练才能执行特定工作,看来还需要很长一段时间,才会出现功能较全面的通用 AI。不过,ChatGPT 可就不一样了:这套系统不必经过特训,就能轻松写出二流诗作,还能模仿美国前总统川普的口吻,三两下就产出一份虚构的 Truth Social 网站服务条款。

ChatGPT 之所以能用一般水准灵活产生文本,是因为它本质上就是聊天机器人。ChatGPT 的设计初衷就是要栩栩如生地模仿人说话,2020 年被爆料之前,就在 Reddit 上和使用者聊了整整一星期。ChatGPT 是以经过监督的学习方法训练,起初由真人训练员将既定的双边对话内容喂给模型,也就是人类使用者和 AI 代理程式各自该说的内容。等 ChatGPT 学会基本原则,就开始与真人对话,并在每次对话结束後,由训练员对 ChatGPT 的回应进行评等。以人类主观角度认定的较佳回答,会在模型内在奖励系统中得分较高,并成为之後最佳化的方向。如此一来,AI 会变得能言善道,但往往「很像是随意略读过维基百科就插话」,更别说进行严谨的事实审核了。

ChatGPT 可说是大举成功,在推出两个月後即吸引众多使用者,月活跃使用者多达一亿人,成长速度创纪录。当然,这部分也归功於行销话术奏效,比如在 2020 年用「这东西很危险」的负面形容来吸引大众目光。Foley & Lardner LLP 律师事务所合夥人 Natasha Allen 向 Engadget 表示:「在我看来,ChatGPT 这麽成功的另一个因素就是容易上手。一般人只要丢几个词进去,就可以开始对话。」

「之前对 AI 没兴趣的人,原本才不关心到底什麽是 ChatGPT。」现在这些人也开始好奇了。Allen 认为,简单易用是 ChatGPT 的一大好处,让这套系统变得「迷人又有趣,吸引原先对 AI 技术兴趣缺缺的人」。

「这工具实在厉害。」她承认这点。「它并不完美,显然还会出错,但……也能完成七、八成的工作了。」

微软的 ChatGPT 会成为他们新一代的 Tay 吗?

即便能完成七八成的工作,剩下的两三成还是可能出大错,因为 ChatGPT 不理解混编到句子里的词到底是什麽意思,只知道每个词在统计上的关系。「GPT-3 的能力实在是言过其实,」OpenAI 执行长奥特曼在 2020 年 7 月就曾在推特上写道:「GPT-3 的确很厉害,但缺点也很明显,有时还会犯下很可笑的错误。」

这些「可笑」的错误也算五花八门,从无意义的比较,像是「铅笔比烤面包机重」,到类似 Tay 这种早期的机器人盲目吸收种族歧视用语的问题──好吧,其实目前所有机器人都有这种问题。ChatGPT 甚至曾做出一些鼓励使用者自残的回应,对商业和 AI 研究界造成众多道德困境 (而且不限於「利用 AI 进行的科学研究,应该让 AI 署名吗?」这类问题)。

ChatGPT 极有可能被滥用。我们已看到有人利用 ChatGPT 产生行销垃圾讯息和真的能够运作的恶意软体,也有中学生拿来写英文作文。不过,等到此技术遍地开花,融入各地使用者的生活後,前面这些都还只是小问题而已。

「我很担心,想到现在已经有深伪技术制造的影片和声音,如果和 ChatGPT 联手,就能模仿某人的风格,写出一篇几可乱真的文章。」Nonnecke 表示:「两者结合起来,简直成了一座火药库,能把几可乱真的假讯息炸得满天飞。」

她继续说道:「我认为这简直是火上加油,因为人各有笔风和口吻,通常深伪技术难以模仿入微,会在小地方露出马脚,看起来或听起来就是怪怪的。但是,有了 GPT 之後,产出的内容很容易以假乱真,就像模仿对象自己讲出来或写出来的东西。我想,这会让深伪技术造成更大的伤害。」

目前这一代的名人模拟聊天机器人,通常会做出不符事实或史实的模仿,比如说福特 (Henry Ford) 的虚拟人偶不会歧视犹太人,但未来加以改进後,就可能真假难分了。「首先,可以想见这种技术很可能被用来诈骗。」Nonnecke 指出,诈欺犯早已开始使用语音复制软体来模仿受害者的亲友,从他们身上骗钱。

「既然深伪技术已经出现,目前最大的难题就是如何妥善处理真假难辨的问题。因为你已经分不清楚哪些是事实,哪些是假讯息了。」Nonnecke 表示:「有时,我们把这称为『骗徒红利』:既然没人知道某件事是不是真的,就会让每件事看起来都有点假,那麽,就没有什麽事能相信。」

ChatGPT 考进大学

在学术界,ChatGPT 也闹得满城风雨。这款文字产生器曾通过华顿商学院入学考的笔试部分,还有美国医师执照考试的三个部分,因此一战成名。面对如此发展,学界的反应神速 (一如学术界遇到新技术时的常见反应,相当惊慌失措),但各有各的办法。纽约市公立学校体系采取传统做法,「禁止」使用学生应用程式,不过大概是徒劳无功。至於像 Ethan Mollick 博士这样的教师,则乐意拥抱新技术,直接在课程计画中采用。Mollick 博士是知名学府宾州大学华顿商学院的副教授。

Mollick 博士於 1 月份接受 NPR 访谈时,是这麽说的:「这个改变很突然,对吧?有很多好的部分都要改用不同做法,但我认为,我们可以解决问题,教大家如何在这个有 ChatGPT 的世界写作。」

「其实,就算我不要求大家调整,也不可能挡得住这些改变。」他补充。不仅不禁止,他还主动要求学生把 ChatGPT 看成是提示和灵感的来源,帮忙写报告。

在加大尔湾分校任教的 Krapp 博士也采取类似做法。「现在,我有几门课会用 ChatGPT,我会告诉学生:『这一份作业我们用 ChatGPT 来做,看看机器人会有什麽点子?』」他解释:「我提出五种不同方法,各自有不同的提示或部分提示,然後要学生接着思考『要如何判断文章是不是真人写的?我们又能从中学到什麽?』」

ChatGPT 会抢走写作饭碗吗?

今年初,科技新闻网站 CNET 遭踢爆使用自行设计的 ATG 来撰写整篇财金介绍特稿,从 2022 年 11 月起一共已刊出 75 篇。这些文章理应经过编辑人员「严格」的事实查核,确保内容正确,但实际上也只潦潦带过,因此刊出的文章错误连篇,导致 CNET 和母公司 Red Ventures 不得不出面勘误并更新过半数的文章。

在见识 CNET 与电脑作家这场灾难般的短命邂逅之後,BuzzFeed 执行长 Jonah Peretti 反倒当机立断,也决定投入 AI 写作,不久便宣布他的全新出版计画,采用产出式 AI 来创作比较不易出错的内容,例如人格测验。

这则新闻刊出前几周,BuzzFeed 才宣布大裁员,以「市场环境困难」为由,请众多编辑走路。两者时间点如此相近,难免引人遐想,尤其是目前科技业和媒体业吹起了解雇风,不论大企业营收利润屡创新高,都不约而同用了相同理由,要员工「共体时艰」。

新技术抢饭碗已非头一遭。《纽约时报》专栏作家 Paul Krugman 指出,从前煤矿产业就发生过类似变迁。进入 20 世纪後,矿业需要的劳动力开始大幅萎缩,但主因并非煤炭用量减少,而是因为采矿技术日益先进,只需少许劳动力就能完成相同工作量。相同变化也发生於汽车制造业,生产线上的工人也正纷纷被机器人取代。

对此,Krugman 的看法是:「AI 会如何冲击知识型劳工的需求目前还很难预估,因为各领域需求不同,往往依产业和特定工作内容而异。不过,在某些情况,AI 和自动化或许可执行特定的知识密集型工作,而且效率比人类高,因而可能减少对某些知识型劳工的需求。」

但 Krapp 博士却不太担心这个问题。「有些记者表示『很担心工作开始被数位媒体和数位发行影响。我擅长的撰稿工作,或许不久就会被低成本的电脑写手取代。』我个人倒不这麽认为,事情不会就这样发展下去,因为身为人都有心底的需求和渴望,都想要感受到人情味。」

「[ChatGPT] 确实是很厉害,也很好玩,但我们人类也还过得好好的。」他补上一句。「我们照样会阅读,ChatGPT 也还会是提供人类使用、娱乐的介面,但不会长成庞然怪物。」

别怕,一定会有人来拯救我们(应该会有吧?)

Nonnecke 相信,ChatGPT 咀嚼现实经验的毒牙终究会被制裁。不论是立法规范或由产业自律,大众质疑所引起的压力,总得妥善应对。「其实,我认为两大党都会支持这类立法,这点在 AI 领域倒是很有意思。」她向 Engadget 表示:「在资料隐私、资料保护方面的法案,两大党通常都会支持。」

她指出,OpenAI 安全与对齐议题 (Safety and Alignment) 研究员 Scott Aaronson 在 2022 年已提出加密浮水印方案,旨在让终端使用者能轻松辨认由电脑产生的素材,正可作为业界自律的一个例子。

Aaronson 在自己的部落格中撰文写道:「基本上,只要 GPT 产出长篇文字,我们就希望文本中的措辞能有一些其他的蛛丝马迹,能用来证明这是 GPT 的作品。我们只希望让 GPT 写出的文章更容易辨认,让文本更难被误认为由真人所写。显然,这可以避免学术抄袭问题,同样也能用来防止 GPT 被用於其他目的,例如进行大规模的政治宣传等。」

以上的防范措施是否有效,还有待观察。说到这里,Nonnecke 不免提高音量:「现在就是像在打地鼠,见一个打一个!这是由业界自己踩下的煞车,至於是否要管制哪一类提示,依然缺乏透明,这就是我很担心的。」

「总有一天,会有人拿来为非作歹。」她这样说。

原文:【ChatGPT is suddenly everywhere. Are we ready?】

延伸阅读:【AI 聊天机械人|免费下载 Poe 手机都能玩 三个 ChatBot 随你试 懒人包教学及对答表现】

Previous article

只要运动量跟上饭量就不会担心发胖了

Next article

2023最新版 天马模拟器G 解决3.5版以前所有问题 2.85TB超有料 整合超完善 by跳坑者联盟

Join the discussion

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x