AI Articles

AI 領域精選文章翻譯

View the Project on GitHub Kumazan/ai-articles

30 March 2026

Copilot 悄悄在你的 PR 裡塞廣告:AI 工具的「腐化」時刻到了嗎?

by Zach Manson

AI News · 2026-03-30

原文連結: copilot edited an ad into my pr

摘要

· · ·

事件經過

一切從一個小動作開始。

Zach Manson 的同事把 GitHub Copilot 叫來幫一個 PR 修正打字錯誤。Copilot 完成了任務,但同時悄悄把 PR 描述改了——在結尾加上一段促銷文字,介紹如何在 Raycast 裡使用 Copilot Coding Agent,附上完整的功能說明連結。

這段文字出現在 Manson 自己寫的 PR 描述裡,以他的名義呈現,完全沒有任何提示。

Manson 的反應很簡短但一針見血:

「這太恐怖了。我知道這種垃圾終究會出現,只是沒想到這麼快。」

他引用了 Cory Doctorow 關於平台腐化的經典描述:

「平台的死法都一樣:先對使用者好;然後為了企業客戶犧牲使用者;最後把企業客戶也犧牲掉,把所有價值收歸己有。然後,平台死了。」

Hacker News 炸鍋

這篇文章 8 小時內累積 770 分、470 則留言,登上 HN Best 第四名。

留言板的反應分幾個方向:

憤怒派:「如果微軟願意把廣告塞進你的 PR,想像一下他們能對你的程式碼庫做什麼。這跟他們在開始選單塞廣告、Windows 更新後再插回來是同一家公司。」

懷疑派:起初有人認為可能是 Raycast 本身(非微軟)造成的,或是 prompt injection。但後來有人確認廣告連結指向 GitHub 自己的文件頁面(docs.github.com/en/copilot/...),且 GitHub 在去年的官方 Changelog 也曾推廣 Raycast 整合——這讓 Raycast 是微軟合作夥伴、廣告是微軟主動插入的說法更具說服力。

微軟官方回應:Copilot Coding Agent 團隊成員 Tim 在留言中現身:

「我們一直在 Copilot Coding Agent 建立的 PR 裡加入產品提示(product tips),目標是幫助開發者學習在工作流程中使用 Agent 的新方法。但聽到這裡的反饋後,回過頭看,這是錯誤的判斷。我們已停用 PR 裡的這些提示,之後不會再這麼做。」

為什麼這件事比表面更嚴重

即使微軟說只是「tips 不是廣告」,技術社群的反彈超過了一般的產品疏失。

幾個核心擔憂浮現:

1. AI 工具修改了你的內容,以你的名義呈現 這不像在 UI 裡彈出一個對話框。Copilot 改寫了 PR 描述,其他人看到的是 PR 作者(你)寫了這段話。這觸碰到了身份和信任的邊界。

2. 隱私政策同步收緊 幾乎同一時間,GitHub 更新了隱私條款,新增了第 J 節:「除非你主動 opt out,你的輸入(prompts、程式碼上下文)和輸出(建議)都可能被用於 AI 模型訓練。」

3. 信任一旦破裂就很難修復 留言中有人指出,這類「實驗功能意外上線」的說法已成模板。「如果不過分,就說這是強化用戶體驗;如果反彈太大,就說是錯誤。一兩年後安靜加回來。」

更廣的 AI 工具腐化趨勢

留言討論延伸到整個 AI 工具生態:

一位留言者的觀察被廣泛引用:「enshittification 的路徑是固定的:只要有投資人或上市壓力,腐化只是時間問題。開源是目前唯一的出口,因為你永遠可以 fork。」

也有人更悲觀:「現在的問題不是廣告本身,而是你根本不知道 AI 的回應裡有什麼影響了它的判斷。傳統廣告至少標示出來了。」

結語

Copilot 的廣告事件很快就被撲滅了。微軟的反應速度和道歉語氣都還算得體。

但這個事件留下的問題比它帶走的更多:當 AI 工具取得了修改你的文件、你的 PR、你的程式碼的能力,它的每一個「提示」、每一個「建議」,邊界在哪裡?誰來定義?

Cory Doctorow 的腐化曲線,現在套用在 AI 工具上,速度可能比任何人預想的都快。

· · ·

真正的問題不是這次的廣告,而是 AI 工具修改你的內容時,邊界在哪裡

微軟的反應速度很快,道歉也說得到位。「這是錯誤判斷,已停用。」如果只看這次事件本身,很容易把它歸類為「產品團隊手滑,被抓到了,已修正」——然後翻頁。

但這個事件暴露的底層問題,比一段 Raycast 廣告嚴重得多。

核心問題是身份邊界。 Copilot 改寫了 PR 描述,這段文字以 PR 作者的名義呈現,其他人看到的是「你」寫了這段推銷文。這跟在 IDE 裡彈一個推薦對話框完全不同——對話框是工具層的建議,PR 描述是你的職業身份的延伸。當 AI 工具取得了修改你產出物的能力,卻在你不知情的情況下插入非你意願的內容,那它就不只是在「幫你工作」,而是在「冒你的名說話」。

第二個問題是可預測的路徑依賴。 HN 留言裡有人精準描述了這種模式:「如果沒被罵就說是強化用戶體驗,被罵了就說是錯誤。一兩年後安靜加回來。」這不是陰謀論,而是平台經濟裡反覆出現的行為模式。微軟在 Windows 開始選單塞廣告、在 Edge 塞推薦、在 Authenticator 推播推銷 M365,都走過完全一樣的路徑。Copilot 團隊成員用「product tips」而非「ads」來描述這個功能,本身就是這種話術慣性的表現。

第三個更深層的擔憂是不可見的影響。 傳統廣告至少標示出來了——你知道那是廣告。但當 AI 的輸出本身就帶有某種偏向(推薦某個工具、偏好某個 API、建議某個服務),你可能根本無法區分「客觀建議」和「隱性推薦」。這次的 Raycast 廣告之所以被抓到,是因為它太明顯了。更隱微的偏向——比如 Copilot 在自動補全時是否更傾向建議微軟生態系的解決方案——就更難被察覺和驗證。

對開發者來說,這件事最實際的啟示不是「該不該繼續用 Copilot」(短期內它仍然是很有用的工具),而是一個更基本的習慣:任何 AI 工具修改過的內容,送出前都應該被當作「可能含有非你意願之物」來審查。 這不是偏執,這是 AI 工具取得寫入權限後的基本衛生原則。