ChatGPT的橫空出世,給大家科普了一個概念, prompt (刺激指令)。跟AI互動, 要先給AI一個prompt,AI會立即響應,給出反饋。
這就是人類行為的執行模式,經過訓練的人工智能掌握的是人的大腦執行機制(大腦),具體的行為,需要有外界輸入prompt,大腦基於prompt響應,驅動行為。
- 電話鈴響了(prompt),人立即被驅動,進入要不要接電話的響應中;
- 下班時間到了(prompt),人立即被驅動進入要不要停止工作的響應中;
- 鬧鐘響了(prompt),人立即進入被驅動要不要起床的響應中。
人的一天,要經歷無數個prompts的刺激,提供對應的行為響應。
人從出生開始接受prompts,伴隨行為響應,不同的成長環境、文化背景會有不同的prompts刺激以及不同的行為響應模式,這是人意識的復雜性與多樣性的體現。
行為控制科學的研究只要掌握外界環境刺激(prompts),既能控制人的行為:
- 一個人本來晚上打算點外賣吃餃子,外賣App送了煲仔飯滿25減24的優惠券,一元立即能買一份煲仔飯,就能控制人的選擇由餃子變為煲仔飯;
- 晚上打算給家人燉雞,超市做活動,排骨滿30減25,五元就能買一份排骨,即能控制一家人的晚餐選擇。時尚界早就的流行,網紅雜誌的推薦,淄博燒烤,這些prompts會刺激人產生對應的行為。
行為控制科學的外界刺激研究,唯一不能控制只有人的語言。
語言是人類的靈魂,即便是把一個人的個人履歷研究透徹,從出生到成年的資訊全部鉆研,設計外界刺激,能輕松驅動人的行為,卻不能預測人的語言,語言的隨機性暫時還不能被環境刺激預估。
但基於成長背景,語言有特定的prompts。
一句話,漢字不同的排列順序,能編排出不同的prompts,能立即驅動人的情緒,能讓人憤怒(帶「媽」的臟話),能讓人恐懼(大新聞),能讓人憂傷(關於親人的噩耗),即便是隨意編排,即便是假訊息,只要挑對環境與講話的人,也能立即驅動人的行為。
- 就這,就這;
- 不會吧,不會吧;
- 他急了,他急了;
- 你品,你細品。
這些網絡流行語,就是極具代表性的語言prompts。
跟ChatGPT聊天,特定的prompts能得到相似的結果;「就這」等這些prompts對人的刺激,能得到相似的情緒反應,就像在路邊遇到一個陌生人,罵他一句臟話,幾個漢字的不同排序而已,可能立即引發一場肉搏戰爭。
人95%的決策,是基於做決策時的感覺。
只要刺激人的情緒,讓人情緒化,立即能最大化驅動對方的行為。在反復驗證中,這些網絡詞匯慢慢像臟話激發人憤怒情緒一樣,很容易能讓人情緒化。人冷靜時是基於道理的交流,誰有道理誰得到關註;社交網本身就是attention games,主動或者被動,大家都在獲取他人的關註。這類只要輸入給人,立即能攪亂他人情緒獲得關註的prompts,對那些渴望獲得關註的人,是最具誘惑的選擇。
早先,臟話prompts最能激發人的情緒,驅動人的行為反應。
但隨著教育的提高,大家對臟話漸漸脫敏,講臟話的人該shame,而不是被罵的那位;隨著社交網發展出的這些網絡詞匯,接棒臟話prompts,最低的技術含量(模仿),卻能獲得最高的註意力,激發旁觀者的惡意,大家一起利用這套prompts。
人的自由意誌,是非常自作多情的,網上幾個漢字的不同排列,就能立即激起人的情緒,再驅動人的行為反應,心思敏感點可能因此爛心情一整天。
電腦的那頭,反復斟酌,耗時費力的寫了一篇文章;電腦這頭,評論區輸入prompt——「就這,就這」,電腦那頭立即委屈、憤怒,甚至懷疑自己,活生生一個被人利用的ChatGPT。最尷尬的地方是,激發人自我懷疑的prompt,還不是原創,來自一個陌生人的模仿。
人工智能會訓練自己desensitizing,不同被同一條prompt驅動反復產生相同的人反應。我們應該學習AI,要聯系自己對這類prompts脫敏,不能因為網上幾個漢字的排列,就讓自己情緒化,憤怒、委屈、惡心,不應該。