最近大家其實卡在同一個地方
你最近是不是也這樣?打開 ChatGPT,打了一長串問題,結果它回了一篇看起來很有道理、但仔細看根本在鬼打牆的東西。你換句話問、重開對話、甚至換了另一個工具,結果還是一樣。 你以為是自己不會問問題,但其實問題出在一個更根本的地方:你從頭到尾都誤會了它腦袋裡在幹嘛。
AI 不是思考,它只是在玩一場超複雜的接龍遊戲。
先替你做判斷
你以為 AI 在推理,其實它只是算機率。搞懂這點,你就不會再對它有不切實際的期待,也知道怎麼下指令才不會白忙一場。
為什麼最近一直在同一個地方跌倒
這個坑最近特別容易踩到,因為工具看起來變得太強了。 你看到有人用 AI 寫了一整份企劃書、有人用它寫程式、有人用它畫圖。你心想:「這麼厲害,那我問它一個簡單問題,應該沒問題吧?」 結果你問「幫我寫一封給客戶的道歉信」,它回你一篇充滿法律用語的正式公文。你問「今天天氣如何」,它開始分析全球氣候變遷。 不是工具壞了,是你跟它對「簡單」的定義完全不同。你把 AI 當成一個懂你的同事,但它其實只是一個看到「道歉信」三個字,就去接最常見的「正式法律文書」的接龍機器。
真正讓事情失控的,不是表面那一層
真正讓你失控的原因,這通常不是個人操作能力問題,而是你對 AI 的「思考方式」有根本的誤會。 我們人類溝通時,會自動補上大量的背景知識和共同脈絡。你對朋友說「老地方見」,他知道是哪個路口。但 AI 沒有這個能力。它沒有記憶、沒有生活經驗,它只有你給它的那句話,和它學過的數十億個句子。 所以你給它「寫一封道歉信」,它就從資料庫裡找出最常出現的「道歉信」範本——通常是正式、嚴肅、帶有法律風險的那種。它不會知道你心裡想的只是「昨天遲到,跟客戶說聲不好意思」。 這個落差,就是所有混亂的源頭。你不是不會問問題,你是沒有意識到,你必須把「老地方」這種隱含脈絡,全部寫成「台北車站東三門那個紅色郵筒旁邊」。
如果你只想先止血,先照這樣做
直接照做的防呆法,只有三步: 第一步:先告訴 AI 它是誰。 不要直接丟問題。先給它一個角色:「你是一個有十年經驗的業務經理,語氣親切但專業。」這等於先幫它設定接龍的「風格」,它就不會亂接到法律文書去。 第二步:給它一個明確的輸出格式。 「請用三點回覆,每一點不超過 50 字。」這等於幫它設定接龍的「長度」和「結構」,它就不會寫成論文。 第三步:給它一個「不要做什麼」的邊界。 「不要使用任何法律用語,不要提到賠償責任。」這等於幫它設定接龍的「禁區」,它就不會踩進你不想要的方向。 這三步做完,你等於幫 AI 畫好了接龍的格子,它就只能在你畫的格子裡選字。
最容易讓你以為有答案,其實還沒收尾的三個誤區
最容易白忙的誤區有兩個: 第一個是「換句話問」。當 AI 給的答案不對,很多人會開始換同義詞、調整語氣、甚至換一個工具。但問題根本不在這裡。如果你沒有先設定角色、格式、邊界,換一萬種問法,它還是會在同一個接龍邏輯裡打轉。 第二個是「覺得它變笨了」。有時候同一個問題,昨天答得好好的,今天卻亂答。這不是它變笨了,而是你昨天給的脈絡(對話歷史)還在,今天重開一個新對話,它等於失憶了。你必須重新幫它鋪路。
送出前最後看一眼,不然很容易重工
送出問題前,最後看一眼這三件事有沒有做到: □ 我有沒有先給它一個角色設定?(例如:你是客服、你是老師、你是編輯) □ 我有沒有指定輸出格式?(例如:三點回覆、表格、200 字以內) □ 我有沒有設好邊界?(例如:不要用術語、不要提法律責任) 這三格都打勾,再按送出。
如果下次又遇到,先照這篇的順序走一次
下次你要用 AI 時,先不要急著打字。花 30 秒,先想清楚:我到底要它扮演誰?我要它產出什麼樣子?有什麼是我絕對不要的? 把這三個答案寫下來,再開始問。你會發現,那個「亂講話的 AI」突然變得好溝通很多。
讀者最常問的幾個問題
不會。它只是根據你給的文字,算出最可能的下一個詞是什麼。它沒有意識、沒有意圖,你的問題只是觸發它啟動一連串的機率計算。一旦你接受這個事實,就不會再對它的「胡說八道」感到困惑,反而能更精準地引導它產出你要的東西。
關鍵在於你給的「開局」夠不夠清楚。AI 的接龍遊戲很吃初始句子,如果你的提示模糊、用詞歧義多,它就會往機率最高的方向走,但那不一定是你要的方向。不是它變笨了,是你沒幫它把路鋪好。
