論文工廠 2.0:AI 毀了代寫,也毀了學術

有人說,ChatGPT 是史上最成功的「代寫工具」——不是比喻,是字面意思。

2022 年底 ChatGPT 出現之前,學術代寫是一門悄悄運作的地下生意:全球市場規模估計超過 $10 億美元,美國單一市場就有 $1-2 億。有人專門靠幫學生寫論文維生,每頁收費 $15-50 美元,按字計價、按學科定級,運作得像一個正規服務業。

然後 ChatGPT 用 $20/月把這個生意幹掉了。

但故事沒有到此結束——它只是變得更奇怪。

傳統代寫市場的死法

先說清楚這個市場是怎麼消失的。

傳統人工學術代寫的成本結構很硬:你需要一個懂英文、懂學術格式、懂特定領域的人,花幾個小時寫幾千字,才能收你 $100-300 元。這個定價有其道理——有知識溢價,有時間成本,也有風險溢價(這畢竟是違規的)。

ChatGPT 的出現讓這個定價體系瞬間崩潰。

$20/月,訂閱制,無限生成。一個學生只要知道怎麼下指令,就能在十分鐘內得到一篇結構合理、語句流暢的五頁學術論文。你還要花 $200 找人寫?只有不知道 ChatGPT 存在的人才會。

這對傳統代寫業者是降維打擊,沒有緩衝期,沒有轉型窗口。就像計程車司機遇到 Uber,但更快——因為 Uber 至少還需要司機,但 ChatGPT 根本不需要你。

數據很直白:計算機科學領域的學術論文摘要中,AI 生成特徵在 2023-2024 年間增加了 17.5%。這個數字只是摘要——因為摘要最容易被統計方法捕捉——實際正文中的 AI 使用比例只會更高,不會更低。

人工代寫的市場份額沒有緩慢下滑,它是斷崖式消失。


但問題並沒有消失

這裡有一個關鍵邏輯:傳統代寫市場崩潰,不代表「代寫需求」消失了。

需求還在。學生還是要交論文,還是要應付考核,還是有人想走捷徑。只是以前需要花 $200 找人,現在 $20 搞定,門檻低了十倍,使用者反而更多了。

結果就是:傳統代寫業死了,但 AI 代寫的規模比以前大了一個數量級。

更糟糕的是,問題的性質也變了。

以前的人工代寫有其「上限」——寫手有工作量限制,有定價約束,覆蓋的學生數量是有限的。現在 AI 代寫沒有這個限制。一個 $20 訂閱,可以幫一個學生在整個學期的每一份作業都「協助生成」。而且 AI 生成的文字不帶情緒、格式規整、引用得當,品質未必比人工差——某些情況下甚至更好。

學術機構面對的不再是「幾個走捷徑的學生」,而是「AI 工具系統性滲透到整個評量體系」。這是量變引起質變,問題的本質不一樣了。


誰在賺:論文偵測產業的暴利

這就是故事最荒誕的部分。

AI 代寫製造了一個問題,這個問題催生了一個新市場——AI 論文偵測。Turnitin、GPTZero、Copyleaks,這三個名字在大學行政圈子裡現在比三年前響亮得多。

Turnitin 是最老的抄襲偵測軟體,已有二十年歷史。它本來是做文字比對的,檢查你的論文有沒有複製其他文章。現在它出了 AI 偵測功能,訂閱費用在 2024 年大幅上漲——因為每一所想要「保護學術誠信」的大學都需要它。

GPTZero 是 2023 年初一個普林斯頓學生做出來的工具,最初只是個副業,結果變成了估值快速攀升的新創公司。Copyleaks 的 AI 偵測模組也在同一波需求浪潮中找到了新的成長動能。

這些公司現在的客戶名單,基本上就是「所有認真對待學術誠信的大學」。全球大學每年花費數千萬美元在 AI 內容偵測工具上——這個數字還在繼續增長,因為問題本身在繼續惡化。

用最直白的方式說:AI 製造了一個問題,然後另一批 AI 工具靠「解決」這個問題賺錢。兩邊都在收費,兩邊都有商業動機讓這場遊戲持續下去。


中國論文工廠:問題的升級版

如果學生個人用 ChatGPT 寫作業是「小打小鬧」,那中國的論文工廠就是這場遊戲的「工業化升級」。

SAGE 出版集團——學術界的大型出版商——在 2024 年撤稿超過 1,000 篇論文,其中大多數被認為是論文工廠的產物。SAGE 的估計是:AI 助攻的論文工廠正在「以指數級速度」提升假論文產量。

這些論文工廠是什麼運作模式?

簡單說,就是工廠化生產假學術論文,然後出售。買家通常是需要發表論文才能晉升職稱的學者(尤其在某些國家,「發表論文數量」直接影響薪資和職位),或是需要在頂刊「掛名」的人。

以前這門生意的限制是:要找夠多的寫手,而且寫手的品質參差不齊,假論文的識破率相對高。現在加了 AI 之後,產量上去了,品質也更穩定了——AI 不會像人一樣因為趕稿而犯低級錯誤,它的語言一致性很高,在某些偵測指標上反而更難被抓。

這是學術生態系統的系統性污染,不是單一事件。


軍備競賽:AI 寫、AI 查、雙方都收費

讓我們退一步,把整個局面看清楚。

現在的局面是這樣的:

一邊,AI 代寫工具(ChatGPT、Claude、Gemini)讓學生幾乎零成本生成學術文字,品質越來越高,偵測越來越難。這些工具不是為了幫助作弊而存在的,但結果就是這樣。

另一邊,AI 偵測工具(Turnitin、GPTZero、Copyleaks)持續更新演算法,試圖識別哪些文字是 AI 生成的。大學花錢買這些工具,希望維持評量公平性。

雙方都在進步,雙方都在收費,問題卻沒有在解決。

為什麼說問題沒有解決?因為 AI 偵測本身就是一個有根本性缺陷的方法論。

AI 生成的文字沒有一個永遠有效的「指紋」。當偵測工具找到某種模式時,生成工具可以更新,繞過這個模式。而且,AI 偵測的誤報率高得驚人——有研究顯示,非英語母語者(包括大量國際學生)的英文寫作,經常被 Turnitin 和 GPTZero 誤判為「AI 生成」,因為他們的句子結構確實和 AI 生成文字很像(都傾向於規整、無個人特色)。

一個國際學生認認真真用自己的語言能力寫出來的論文,被偵測工具說是 AI 寫的,這個結果對誰都不好。

更深的問題是:即使偵測是完美的,你能偵測出「哪些地方用了 AI」,卻很難偵測出「學生有沒有理解自己交出去的東西」。一個學生用 AI 生成論文架構,然後自己寫填入細節,這算什麼?用 AI 糾正自己的語法和措辭,算什麼?

評量系統是設計來測量「學習成果」的,但如果工具讓「生成表面上看起來像學習成果的文件」變得很容易,那這個評量系統測量的究竟是什麼?


學生的道德困境:工具還是作弊?

這場軍備競賽的夾心層,是學生。

對許多學生來說,AI 工具現在處於一種奇怪的「薛丁格狀態」——同時是「合法的寫作輔助工具」和「禁止的作弊手段」,而哪個狀態成立,取決於你怎麼用、用了多少、問的是哪個教授。

各大學的政策一片混亂。有的大學全面禁止,有的大學允許「輔助使用」,有的大學要求「透明揭露」,有的大學根本還沒出政策。同一所大學的不同系所、不同教授,可能有截然相反的規定,而學生往往搞不清楚邊界在哪裡。

而且「完全不用 AI 」在某些情境下已經是假命題了。Word 的語法建議是 AI。Google Docs 的自動補全是 AI。Grammarly 的修改建議是 AI。我們是要把所有使用 AI 的行為都算作違規,還是只針對「生成實質性內容」?這條線怎麼畫?

更現實的問題是:競爭壓力在這裡。如果其他同學都在用 AI 輔助,而你堅持全手工,你的論文品質(表面上的措辭和格式)確實可能比不過他們。這不是鼓勵大家去作弊,只是說這個競爭結構已經形成了一個奇怪的均衡。


偵測工具的商業本質

回到誰在賺錢這件事。

AI 偵測產業的商業模式值得仔細看一下。Turnitin 的母公司 Advance Publications 在 2024 年的財報中,AI 偵測功能是明確的新增收入來源。GPTZero 和 Copyleaks 的估值增長,很大程度上來自於「這個問題不會消失」的預期。

問題越大,他們越值錢。

這不是在指責這些公司做錯了什麼,他們提供的確實是學術機構需要的服務。但這裡有一個結構性的利益問題:這些公司的商業成功依賴於 AI 代寫問題持續存在——如果問題被「解決了」,他們的市場就沒了。

所以這個市場的動態其實很複雜:偵測工具公司不會主動把自己的工具做得「太準」到讓學術界覺得問題解決了,因為那樣他們就失去了持續收費的理由。

當然,真實情況可能更無奈一點:這個問題就是解決不了,偵測工具的演算法就是追不上生成工具的進化速度,所以兩邊都能持續收費是因為問題是真實的,而不是被人為維持的。

但結構上,這和其他「問題產業」沒什麼差別——鎖匠的生意跟竊盜率正相關,防毒軟體的生意跟病毒的複雜度正相關。


學術誠信的根本性挑戰

在所有這些數字和商業邏輯之外,有一個更根本的問題還沒有被認真回答:

當 AI 能夠寫出比大多數學生更好的學術論文,「論文」這個評量方式還有意義嗎?

傳統的學術論文評量,建立在一個假設上:寫作過程本身就是學習的一部分。你寫論文,不只是為了交出那份文件,而是在寫的過程中理清思路、整合材料、表達立場。論文是「學習過程的外化」。

但如果外化的部分可以被工具代勞,學術機構要評量的是什麼?

有些教授已經轉向口頭報告、現場問答、開放書籍考試這些比較難用 AI 一鍵解決的形式。這是務實的回應,但它只是戰術上的繞道,不是戰略上的解答。

更根本的問題是:如果 AI 讓「生成符合格式的學術文字」變得幾乎無門檻,那麼學術訓練的核心價值到底在哪裡?是培養「能夠生成學術格式文字的人」,還是「能夠思考、判斷、整合知識的人」?

這兩件事以前是綑綁在一起的,現在 AI 把它們解開了。


結語:當 AI 比人寫得更好

我沒有答案。

我只是覺得,這整個局面很荒誕:AI 代寫殺掉了人工代寫,催生了 AI 偵測;AI 偵測打不過 AI 生成,兩者都在進化、都在收費;學術機構花大錢買工具,希望維護一個「誠信體系」,但這個體系的基礎假設已經動搖了。

與此同時,中國論文工廠用 AI 批量製造假學術成果,污染的是全球知識生產的基礎設施。那些本來應該推進人類理解的學術文獻,現在有一部分是流水線出來的語言模型輸出。

真正的問題或許不是「AI 代寫有沒有違規」,而是:

當 AI 寫的論文比很多人寫得更好,「原創性」這個概念還有意義嗎?

或者換個方式問:我們培養的是能夠使用工具的人,還是工具本身?

這個問題沒有容易的答案。而且,在我們還在爭論答案的時候,論文工廠已經在用 AI 以指數速度擴張了。


一見生財 / 2026-03-09

(本文為「AI 財富地圖:誰在賺、誰在死、誰在灰色地帶」系列第 04 集)

📡 想看更多?加入 AI 印鈔指南 頻道,每日推送 AI 技術前沿 + 加密貨幣投資情報

留言

載入留言中...

留下你的想法