提示工程(Promoting Engineering )目前被熱烈討論中,除了到處可見, 可重現結果,經過多人使用驗證,效果顯著提示內容外,也有人開始從理論出發, 給予非電腦科學背景的操作指引(連結一)。

可見未來,操作提示是一項很重要的技能。

近來亦有設計師開始倡議下一代介面設計思潮為 Promoting-DrivePrompt-driven design is when an AI command bar functions as either the primary tool of navigation or output

一文探討了許多知名數位工具介面的演化,認為未來數位工具的介面,將會從現在的圖像操作方式,轉變為用自然語言賦予指令的方式,對話操作。 由於給於提示的自由度過高,導致不少人紛紛討論這類“擬人類”工具的正確用法。其中一個被熱議的議題,便是對話時需不需要有禮貌?

Ethan Mollick ,華頓商學院的管理學教授,認為不應該在請求中說「請」和「謝謝」。他認為 ChatGPT 不是 Google,也不是 Alexa,它也不是一個你在給指令的人類。它是一個你用文字編程的機器,因為我們只是試圖促使一個非有自我意識的機器生成我們需要的文本,禮貌會妨礙給予精確的指令。

然而給予精確的指令與"禮貌"這兩件事情其實沒有衝突。你仍然可以以維持禮節的方式下, 給予精確的指令,就如同職場上,老練的管理層知道如何與下屬對話,但又能使其心情愉悅地, 或激勵他完成任務。

從電腦科學領域中,基於模型的原理,禮貌也許是沒有影響,或被分類為雜訊。雖然,我懷疑訓練語料中,處於“禮貌“對話過程中的回答品質應該是較“不禮貌“對話中優,如同偏見能被訓練進模型,禮貌也能被訓練進模型。

此外,若放到得更大一點的情境,考慮到交互體驗,那就更有差別了。

考量與系統交互的情感回饋是重要的。當你用較有禮節的語氣回應 ChatGPT, 你得到也是更有禮節的的回應,大腦中樞也會得到正能量,而不至於在與 ChatGPT 等這類 AI 無法給予預期結果中失控。 使用者糾正 ChatGPT 錯誤時,可以用武斷的語言或是用婉轉語言糾正,前者會讓 ChatGPT 懟你。 相同的道理,人類基於數位工具與人的界線越來越模糊的狀態,採用後者對使用者體感比較好,沒有人喜歡被 AI 糾正。

從更大的社會結構來看這件事情,基於 AI 沒有情感的前提下操作,是有機會衍生一個潛在的社會問題 - 當網路上的習慣越來越容易被進現實。以越來越不在乎對方情感的方式使用 ChatGPT,該數位工具會將會影響你與人對談的方式,以更為粗暴的語句回應他人,如同中文輸入法跟抖音已經污染受眾的語彙。

在抖音之前,一個容易觀察到的現象是網路上的非同步對話已成為現實的常態。 Internet 誕生後的族群,跟 Internet 誕生前的族群,在物理空間,多人對話方式的差別。 當然,還有最出名的,注音文文化。

因此,不管是對使用者,還是對產品設計,提示(Promoting )要不要有禮貌是一個滿有趣的「設計」考量。

一位設計顧問在 Twitter 上與他的跟隨者展開討論 後,總結了一個規律。

跟 ChatGPT 说“请”的人,没解释为什么要跟 AI 说“请” 不跟 ChatGPT 说“请”的人,主动解释了为什么不需要跟 AI 说“请”

也許在看不見得地方,我們仍要保持禮節。在日常生活中,我們更愛跟前者來往。君子慎獨。