AI出現後人類的未來會是?

▎明日會如何?

AI已然成形並進步飛快,屬於AI分支的GPT才剛問世但能力強大,而且對於背後科學原理知之甚少的人們也能輕鬆上手。諸如Siri、Alexa以及你汽車上的導航系統都屬於AI機器人,都配備了語音辨識軟體,也能與你對話,已經如同你的朋友一般。Meta看來笨重的擴增實境及虛擬實境的頭戴式裝置越來越受歡迎,現在也能買到從鏡片內將Facebook內容直接串流到視網膜上的眼鏡。你的烤箱、洗碗機和冰箱內部都有AI讓你知道它們的感受。GPT則與眾不同,因為GPT不只能夠幫你設定溫度和YouTube串流,還可以寫出符合文法的長篇文章,也已經使用在新聞稿與新聞播報文稿上。

這本書要探討AI∕GPT面臨的挑戰,並思考AI∕GPT如何影響對美國大眾至關重要的兩大領域:金融與國家安全。當然,有無數種方式可以將AI∕GPT應用在資本市場與銀行業上,能夠增進效率、改善客戶服務,同時降低金融中介的成本,如今便有發行運用GPT來選擇股票、預測匯率的避險基金。我們在第一章中討論這點,同時檢視在機器人對上機器人的情況中發展出遞迴交易的風險,會以參與者本身不理解的方式讓市場崩盤。我們在1987年10月19日就看過這樣的預示,當時道瓊工業平均指數在一天內下跌超過20%,以今天的指數水準來看相當於一天跌了8千點,這是因為投資組合保險需要保險公司買進賣權,以防範一開始的下跌,接著選擇權的賣家做空股票以對沖頭寸,結果讓下跌更嚴重,又造成買進更多賣權,如此反覆進行,最後將市場拖進死亡漩渦。那次崩盤的自動化痕跡不會像今日的發展那樣明顯,畢竟這是在套用AI以前,但是賣出導致更多賣出的動力仍然存在,而AI∕GPT系統只會放大效應,交易熔斷機制可以暫時停止,但僅此而已。機器人不像人類那般容易馴服。

第二、三章則將眼光看向資本市場(股票、債券、商品、外匯)之外,檢視銀行業(貸款、存款、歐洲美元,以及衍生性金融商品)。兩者都很容易恐慌,但表現出來的動力不同,資本市場的恐慌會突然出現且非常明顯,而銀行業的恐慌則是緩緩升起,對於存款人及監管者來說大多是看不見的,最後才發現發展成熟的流動性危機已然浮出檯面。有時這兩種恐慌會匯聚,例如銀行倒閉導致股市出現拋售潮,或者相反過來。我們會解釋其中的差異,並指出AI∕GPT系統或許會如何撼動本就不甚穩定的結構。

▎當機器人對上機器人……

AI的危險並不僅限於意料之外的結果。金融市場會吸引罪犯及惡意行為者出現,他們透過餵養文字給社群媒體、公關新聞稿以及主流管道,再從自己造成的恐慌中獲利。GPT會如所受到的訓練一般吞食這些文字,參數化之後的結果就是偏重最近期或者文字最有影響力的內容,機器人會根據假新聞提供建議,以及可預測的市場結果。惡意行為者早已占好位置,要從立即的市場反應中獲利,不過情況不會就此停歇,在機器人對上機器人的世界裡,沒有人擁有足夠的資訊或運算能力可以預測接下來會發生什麼。

資本市場及銀行金融中未預期到以及意圖造成的混亂,很有可能影響到國家安全的領域,此處的風險更高,不論是國家還是非國家勢力,他們掌握的資源往往比操縱市場的人更多。而與國家為敵的勢力通常都有明確的敵意,這一點也不令人意外;但以非國家主體為攻擊對象的勢力,就更難以預測,可能是為了金錢,也可能是出於意識形態,甚至只是出自一種虛無的破壞衝動。更複雜的是,有些看似獨立的非國家行動者,其實是偽裝過的國家代理人。整個局勢本就難以看清,而情報專家所說的「鏡子構成的荒野」,用以比喻充滿偽裝、誤導與假象的世界。如果再加上一層來自智慧科技的濾鏡,結果往往會更讓人迷失方向。

▎AI/GPT 加入戰局的三個關鍵面向

戰爭的主戰場早就開始變化,從動能武器進展到金融制裁手段,在前線或許還會使用飛彈、地雷和迫擊砲,但是禁止出口、扣押資產以及間接抵制已經是一塊關鍵戰場。如果可以不費一顆子彈就摧毀敵人的經濟,政策制定者會更願意採取這種途徑。即使已經全面部署好武器,長遠來說,在背後支持彈藥庫的工業及金融能力仍至關重要。一邊是金融,另一邊則是國家安全,兩者之間的連結既綿密也可能決定結果。

AI∕GPT透過三種不同面向進入戰局。第一是將智慧系統應用在前線戰局中,包括情報、監視、鎖定目標、電信、干擾訊息、物流、武器設計和其他傳統任務。第二則是運用AI∕GPT讓金融制裁發揮最大效用,考慮用來削弱或摧毀敵方經濟能力的各種工具會帶來的二次及三次效應,包括石油禁運、禁止半導體出口、凍結準備資產、沒收、禁止保險及其他工具。最後,AI∕GPT也可以用來攻擊,不只要限制市場,更要殲滅殆盡,其目標不會是透過制裁讓對方付出代價,而是要想辦法摧毀市場,讓人民的資產損失上兆美元,此舉的影響不僅僅是資產價值,因為人民會開始怪罪自己的政府造成金融浩劫。我們在第四章探索這個世界,尤其會特別討論AI帶來的核戰危機。

我們在第五章要討論AI∕GPT最令人擔憂的面向:審查、偏見以及虛談(為了服務使用者而生成通篇虛構的內容),這個缺陷比旁觀者所謂的「AI幻覺」影響更深,真正的幻覺既複雜又天馬行空,要解釋AI∕GPT所發生的事情,比較好的譬喻是虛談,這是一種心理疾病。虛談症的患者會編造出帶著自戀傾向、關聯性有限的故事,當說話者感到慌張、面對質疑,或者不知道該說什麼時,就可以一再套用這種心理模組(也就是可以重複)。這跟說謊不同,因為說話者在缺乏自覺下並不知道自己在說謊。

GPT在寫作報告的過程中,如果為了連續性或完整性需要填補空白也會這麼做,就像為了補上拼圖中缺失的一塊,就自己捏造出一塊來。還是一樣,這並非說謊,因為GPT不懂倫理道德,GPT是機器,無法形成說謊所需要的惡意。在生成的報告中,該領域的主題專家或許能夠發現編造的部分,但大多數使用者則無法,如果需要主題專家才能發現AI∕GPT產出結果中的瑕疵,這些系統最初的優勢還有什麼?

▎AI 將如何重塑人類的價值觀與道德?

關於價值觀和道德的題目就更加棘手了,在AI∕GPT領域中的每位科學家和開發者都提到價值觀與道德的重要性,他們堅持必須阻擋錯誤及虛假訊息,相當焦慮地感到有必要剷除新的偏見同時彌補過去的偏見。他們尋找各種方法來清理資料庫及程式演算法,好讓偏見不會感染到訓練集與GPT產出,想要透過AI∕GPT的應用與產出來提倡價值觀。

這樣故作姿態的道德感卻忽略了困難的問題:到底該提倡誰的價值觀?近期有大部分所謂的虛假訊息結果證明是正確的,而反對這些訊息的內容則在推廣錯誤的敘事。關於偏見的論戰中假設守門員沒有自己的偏見,並且忽略了偏見其實是相當寶貴的生存技巧,永遠不會消失。多元性已經成為觀點同質性的代號;如果用差別待遇來過濾掉那些野蠻和不講道理的行為,就很寶貴。諸如谷歌(Google)和Meta等AI守門員在過去十年間,其實一直在推廣關於新冠肺炎、氣候變遷和政治的錯誤敘事,同時讓說真話的人失去平台、失去收益,那麼我們為何要信任他們呢?從更大層面來看,如果訓練集已經遭到主流媒體的謬誤所汙染,GPT的產出又怎麼會不同呢?因為這些本質性的問題,我們必須面對這些挑戰,也會影響到AI科技如何應用到許多真實世界的領域中。

本書在結論中提醒讀者,AI∕GPT這樣新興科技應當能帶來許多便利,希望我們在其主導數位環境之前就認知到其中的瑕疵與危險。我們必須想清楚,讓Alexa關燈這樣的方便,是否值得我們允許主動聆聽裝置日夜隨時將私人對話傳送到集中控制的系統?生成性AI的便利是否值得我們允許透過偏差的訓練集、拙劣的偏見爬梳以及短暫爆紅的價值觀所傳播的錯誤敘事?我們有可能利用AI∕GPT的優點,同時排除掉那些宣傳鼓吹的訊息,有了人文主義觀點、社群信任及自主性的支持,就能彰顯出經過時間淬鍊的價值觀。這本書會指出一條向前的道路。

PUBU電子書城 購書、無限飽讀享優惠~