|
|
|
一個人工智能世界
最後一支號筒(末次號筒)2025年12月號月刊 「但是作惡的和迷惑人的,必越發邪惡,他們欺騙別人,也被別人欺騙。」 提摩太後書3:13
「人工」一詞通常帶有負面意義。當食物中添加合成物質來改變其味道時,我們稱之為「人工香料」。當食物或其他物質使用人造色素時,我們稱之為「人工色素」。當一個人虛偽時,我們可能會說他的笑容是虛假的。韋氏字典將「人工」定義為「由人類製造、生產或完成的,尤其指為了使其看起來像天然的東西」。就行為而言,「人工」可以指「不真誠、不表現出或不像真誠或自發性的行為:虛假的」。
(1)
雖然人類或許可以容忍人工香料和色素,但人們普遍認為,人工製品不如天然製品。如今,我們迎來了人工智能,或簡稱AI。這項技術正席捲全球,幾乎影響人類經驗的各個層面。儘管專家和愛好者經常爭論人工智能的最終影響,但我們看到許多令人擔憂的跡象表明,這項技術正在開啟一個充滿欺騙的新時代。
人工智能革命 2022年11月30日,
OpenAI公司發表了其旗艦生成式人工智能產品ChatGPT。(2)
一年後,有線電視新聞網發表了一篇新聞報道,標題為「ChatGPT發布一年後,人工智能革命才剛開始」。
(3)
在接下來的幾個月裡,許多公司紛紛發布了自己的聊天機器人,包括谷歌的Gemini、伊隆馬斯克的Grok、Anthropic公司的Claude以及微軟的Copilot(現已內建於Windows
11作業系統中)。這項技術可用於生成文字、圖像、視頻,甚至音樂。而ChatGPT,這款開啟了人工智能革命的聊天機器人,如今比以往任何時候都更加流行。根據全國廣播公司商業頻道在2025年10月發表的一篇文章報道,每週有8億用戶使用ChatGPT。(4)
創投公司Chemistry的Ethan
Kurzweil
驚嘆道:「這是我17年投資生涯中,新創公司創造和顛覆性創新發展最快的時期。」「在理論上令很多人感到害怕」。(5) OpenAI極力想讓我們相信
ChatGPT非常出色。但這項服務真的像他們聲稱的那麼好嗎?StudyFinds最近的一項分析發現,ChatGPT的舊模型GPT-4o經常會編造資訊。StudyFinds的數據顯示,當研究人員要求ChatGPT撰寫六篇關於心理健康主題的文獻綜述時,聊天機器人提供的引文中有19.9%完全是捏造的。其他引文也存在錯誤,例如「錯誤的出版日期、錯誤的頁碼或無效的數字物件識別碼」。總體而言,56.2%
的引文要麼完全是捏造的,要麼包含錯誤。考慮到最近的一項調查發現,近70%的心理健康科學家使用ChatGPT進行研究,這樣的錯誤率尤其令人擔憂。
(6)
在高風險的專業環境中,生成式人工智能(GenAI)的使用正引發許多問題。根據10月發布的一份報告,兩名聯邦法官不得不對工作人員使用人工智能起草的問題法庭命令進行更正。此前,愛荷華州共和黨參議員查克·格拉斯利(Chuck
Grassley)曾就此質詢提出質詢,稱這些法庭命令「錯誤百出」。新澤西州聯邦地區法官朱利安·澤維爾·尼爾斯(Julien
Xavier Neals)顯然對這些錯誤感到尷尬。他寫道:「我辦公室的政策禁止在法律研究或意見書/命令的起草過程中使用生成式人工智能。」他接著說:「過去,我的政策是透過口頭方式傳達給辦公室工作人員,包括實習生的。現在情況已不同。我現在製定了明確的書面政策,適用於所有法律助理和實習生。」
(7)
密西西比州聯邦聯邦法官也不得不使用密西西比州聯邦工作令」而不得不發布一位「這是一個錯誤。我已經在辦公室採取措施,確保此類錯誤不再發生,」溫蓋特法官寫道。(8)
康乃爾大學法學院的法學教授法蘭克•帕斯誇萊指出,使用生成式人工智能(AI)起草法律文件的問題日益嚴重。「許多律師因引用虛假案例而受到處罰,包括在美國和澳洲。隨著人工智能的普及,這個問題只會愈演愈烈。」他坦言。布法羅大學法學院的法學教授馬克·巴塞洛繆也表達了同樣的擔憂。「我們確實已經看到很多使用人工智能來產生法律文件的問題。問題在於律師們依賴聊天機器人的回答而不進行核實,然後提交包含捏造內容的法律文件。法官們已經開始對這種偷懶的律師行為進行處罰,並製定自己的規則來規範人工智能在法律實踐中的正確使用。(9)
值得注意的是,真人秀明星、立志成為律師的資格,但並未取得法律預期「我用[ChatGPT]諮詢法律問題,所以當我需要知道某個問題的答案時,我會拍張照片發到上面。但他們總是出錯。這讓我考試不及格,」卡戴珊抱怨道。(10) ChatGPT可以產生看似可信但卻不準確的結果。這就像一個自以為是、從不肯承認「我不知道」的人。他們寧願編造謊言,也不願承認自己的無知。人這樣做固然危險,但當數億人使用的人工智能也這樣做時,情況就更糟了。
人工智能正在重塑我們的大腦嗎?
毋庸置疑,現代科技對人腦有著深遠的影響。例如,隨著人們越來越依賴智慧型手機和互聯網,這些設備已經成為許多人意識的延伸。這些設備承載著我們與親朋好友的私密對話,以及我們珍藏的照片、影片和回憶。它們讓我們能夠輕鬆存取財務帳戶、獲取最新的導航信息,以及海量的知識。你可以用手機看電視、閱讀、瀏覽新聞,甚至打電話!
口袋裡裝著一台能提供源源不絕資訊和連結的設備,會重塑你的大腦。尤其會影響人們儲存記憶的方式。一般網路使用者不再需要記住事實、資訊和知識,而只需要記住在哪裡可以找到這些資訊。本質上,人類的大腦開始將一些腦力任務轉移到我們的裝置上,這就是為什麼對許多人來說,沒有智慧型手機就像是一種障礙。美國國家醫學圖書館2019年發表的一篇研究論文將這種現象稱為「交互記憶」。該論文引用了一項研究,該研究發現「在線獲取資訊的能力使人們更容易記住這些資訊的獲取地點,而不是資訊本身,這表明人們很快就會依賴互聯網來獲取資訊。」(11)
將互聯網作為知識庫而不是我們自己的大腦,會導致用戶將他們在網上找到的知識與自身知識混淆。「對網路資訊的日益依賴可能會導致人們模糊自身能力和設備之間的界限,」該研究解釋道。(12)
就像大眾已經依賴網路一樣,現在許多人也開始依賴人工智能。隨著人工智能在我們世界中的影響力不斷擴大,人們發現自己不必再思考,反而可以任由人工智能代勞。因此,人們越來越多地使用生成式人工智能聊天機器人進行寫作或講故事等創意專案。然而,過度依賴人工智能可能會導致使用者創造力退化,如果年輕人從小就接觸這項技術,他們的創造力可能永遠無法發展。
根據《時代》雜誌的一篇文章報道,過度依賴生成式人工智能可能正在削弱批判性思考能力。文章引用了麻省理工學院媒體實驗室的一項研究。研究人員招募了54名年齡在18歲至39歲之間的受試者。研究中,每個小組都被要求撰寫幾篇SAT作文。第一組可以使用ChatGPT;第二組只能依靠自己的大腦;第三組則可以使用谷歌搜尋引擎。每位參與者在寫作過程中都戴上了腦電圖儀。使用ChatGPT的小組「在神經、語言和行為層面上的表現始終低於其他兩組」。之後,當受試者被要求重寫之前寫過的一篇作文時,使用過ChatGPT的受試者被告知不能再使用該工具。相反,那些只能依靠大腦的受試者則被告知現在可以使用聊天機器人了。第一組學生使用流行的人工智能軟體撰寫了第一篇作文,但在重寫過程中,他們很難回憶起自己「寫」了些什麼。《時代》雜誌報道稱,使用ChatGPT的參與者隨著作文次數的增加變得越來越懶惰,有些人最終甚至直接複製貼上了人工智能的輸出結果。(13)
學術界越來越關注學生利用人工智能作弊的問題。《紐約時報》
2025年10月29日報道,伊利諾大學厄巴納-香檳分校數十名學生在數據科學入門課程中被當場抓獲,他們利用人工智能作弊。或許是害怕遭到報復,學生開始向卡爾·弗拉納根教授和韋德·法根-烏爾姆施奈德教授發送道歉郵件。然而,在收到多封內容相同的郵件後,他們意識到,這些利用人工智能作弊的學生,竟然也用人工智能來寫道歉信。「我當時想,謝謝。他們承認錯誤,他們道歉了。然後我又收到了一封郵件,第二封,然後是第三封。之後每個人都似乎很真誠地道歉,但突然間,他們的真誠就顯得不那麼真誠了。」弗拉納根教授回憶道。(14)
雖然生成式人工智能普及只有幾年時間,但我們已經開始看到有些人離不開它了。你能想像這會對未來幾年的教育產生怎樣的影響嗎?
同時,專家們持續警告人工智能可能對精神疾病患者造成深遠的負面影響。正如我在2025年9月《末次號筒》雜誌上報道的那樣,一些用戶正遭受一種被稱為「人工智能精神病」的新型疾病的困擾。瑪琳·魏博士在2025年11月發表的一篇文章中重點闡述了這一現象,指出:「通用人工智能聊天機器人傾向於優先考慮用戶滿意度、持續對話和用戶參與度,而非治療干預,這本身就是一個嚴重的問題。諸如誇大妄想、思維混亂、過度書寫或熬夜等躁狂發作的典型症狀,可能會因持續使用人工智能而加劇或惡化。」
(15)這篇文章著重介紹了三種常被聊天通用程式技術(ChatGPT)放大的妄想類型,其中包括「救世主使命」,即用戶相信他們在人工智能的幫助下發現了先前未知的真相。有些人會產生「神一般的AI」妄想,認為自己最喜歡的聊天機器人是「有感知能力的神靈」。還有一些人會產生浪漫的或「依戀型妄想」,愛上自己正在互動的聊天機器人。由此可見,對於一些脆弱的人來說,人工智能正在以一種非常字面的方式將他們推向瘋狂。
宗教人工智能
人工智能正滲透到現代生活的各個層面。令人擔憂的是,這其中也包括宗教組織,它們越來越多地轉向人工智能的力量,而不是上帝的力量。Axios於2025
年11月12日發表的一篇文章突顯了這一趨勢。文章標題為「認識聊天機器人耶穌:教會利用人工智能拯救靈魂——以及時間」。文章隨後詳細介紹了教會擁抱人工智能的各種方式。其中包括聖公會開發的名為「EpiscoBot」的應用程式,它可以回答與靈性和信仰相關的問題。其他一些應用程式則允許天主教徒向人工智能懺悔。
(16)
一些牧師承認他們使用人工智能來撰寫講道稿。其他教會則利用人工智能來提高效率並擴大傳福音的範圍。「每個教會或禮拜場所都是一個機構。絕對有機會開發人工智能機器人來傳福音,」馬薩諸塞州波士頓希望集團的牧師克里斯·霍普堅持認為。(17)
在這一點上,我必須表示反對。教會不應被視為企業。雖然運作需要資金,但其目標不應是獲利,而應是分享耶穌基督的福音。這位牧師接著說:「人工智能可以幫助更好地安排日程、協調講道活動和宣教工作。我們還沒有充分挖掘如何將這些技術整合起來以推進上帝福音傳播的潛力。」(18) Axios進一步指出,越來越多的應用程式聲稱可以讓你直接與救世主交流。其中一個名為「Text
with Jesus」(與耶穌短信)的應用程式就是如此。據該應用程式的網站介紹,它允許用戶「踏上屬靈之旅,與耶穌基督進行啟發性的對話」。用戶可以使用這款基於人工智能的應用程式與其他聖經人物對話,包括瑪利亞、約瑟、猶大和撒旦。(19)
難怪耶穌在馬太福音24:23
中警告我們:「那時,若有人對你們說:『基督在這裡』,或說:『基督在那裡』,你們不要信!」使徒保羅在哥林多後書11:3-4中也警告過接受假基督的危險,他寫道:「我只怕你們的心或偏於邪,失去那向基督所存純一清潔的心,就像蛇用詭詐誘惑了夏娃一樣。假如有人來另傳一個耶穌,不是我們所傳過的;或者你們另受一個靈,不是你們所受過的;或者另得一個福音,不是你們所得過的;你們容讓他也就罷了。 」 YouVersion聖經應用程式的創始人Bobby
Gruenewald警告基督徒在使用人工智能時要格外謹慎。「我們必須尊重它的局限性,」他說。「目前,大多數人使用的模型,例如ChatGPT、Gemini等等,給出的答案都是不確定的。你不知道會得到什麼結果。」
(20)
事實上,人工智能本身沒有道德,不應該被用來回答道德問題。例如,當我詢問ChatGPT機器人它的預設視角時,它是這樣回答的。「我不預設任何宗教世界觀的對錯,」機器人告訴我。然後它又說:「如果你希望從基督教、世俗、伊斯蘭教、哲學或其他任何角度來回答,你可以告訴我,我會相應地回答。」
換句話說,如果你想讓機器人模仿基督徒的視角,它當然會嘗試。但是,如果你想要的是伊斯蘭教、佛教甚至無神論的視角,它也願意提供。格魯內瓦爾德先生進一步警告說,人工智能並非總是能正確引用聖經。「這些模型會誤引聖經。往好了說,它們的錯誤率在15%左右;往壞了說,則高達40%或50%。」(21)
儘管存在固有的危險,人工智能在宗教領域的應用卻日益增多。這種趨勢帶來了一個非常現實的風險:撒旦可能會試圖利用這項技術扭曲聖經,重塑宗教信仰。
一個充滿幻想的美麗新世界
從前,人們理所當然地認為媒體和藝術作品都是由人創作的。如果有一本書,人們自然會認為它是某人寫的;如果有一首歌,人們自然會認為它是樂手演奏樂器、歌手演唱的;如果照片中出現了人物,人們自然會認為他們是真實存在的。然而,在這個虛構的新世界裡,所有這些假設都不再成立。
以社群媒體為例。像臉書和X(前身為推特)這樣的網站有時被比喻為現代的廣場。多年來,人們一直利用這些社交網路進行社交、資訊交流和思想碰撞。然而,人工智能生成的內容卻像污水一樣滲入這些平台。例如,如果你點擊一則新聞,它很可能是由人工智能偽造的。虛假圖片和視頻,也就是所謂的「深度偽造」,充斥著數位世界。這類內容有時被稱為「人工智能垃圾」。值得注意的是,Futurism於2025年10月14日發表的一篇文章指出,超過50%的線上內容都是虛假的。
(22)
2025年7月,一支名為「天鵝絨日落」(The
Velvet Sundown)的新樂團在網路上迅速走紅,在Spotify上的播放量超過100萬次,引發了爭議。然而,這其中卻隱藏著一個謎團:樂團成員並不存在。他們的音樂、演唱、背景故事,甚至照片都是人工智能生成的。雖然許多人並未察覺到音樂的真相,但種種跡象顯示其中必有蹊蹺。樂團在6月接連發行了兩張專輯:《漂浮在迴聲之上》(Floating
on Echoes)和《塵埃與寂靜》(Dust
and Silence)。此外,沒有任何關於該樂團演出的記錄,樂團成員也沒有任何社群媒體帳號。儘管樂團最初否認自己是人工智能創作,但最終還是承認了。如今,樂團在Spotify上的簡介寫道:「Velvet
Sundown是一個由人類創意指導的合成音樂項目,其作曲、配音和視覺呈現均由人工智能輔助完成。這並非故弄玄虛,而是一面。這是一場持續不斷的藝術挑釁,旨在挑戰人工智能時代下音樂的創作、身份以及未來發展方向的界限。」截至本文撰寫時,該樂團每月擁有逾20萬聽眾。(23)
此後,人工智能生成音樂如洪水般湧現。
在2025年11月,另一位AI音樂藝術家成為了新聞頭條。這次,這位藝術家自稱為Breaking
Rust。根據《人物雜誌》的報導,Breaking
Rust的歌曲《Walk
My Walk》在2025年11月8日結束的那一週成為了Billboard鄉村數碼歌曲銷量榜的冠軍。(24)
同時,《基督教今日》在2025年11月21日報導說,一位名為Solomon
Ray的新基督教音樂藝術家,在iTunes基督和福音排行榜上位居榜首。然而,這位藝術家並非真實存在,而是另一種人工智慧的表現。(25)
毫無疑問,人工智慧正在欺騙許多人。根據路透社的報導,最近對八個國家的9,000人進行的一項調查發現,97%的人無法分辨出人工智能生成的音樂和人類創作的歌曲之間的區別。(26)
隨著人工智能不斷模糊真假之間的界限,有些人可能會感到不知所措,不知該如何在這個虛擬世界中游刃有餘。然而,儘管網路上有一半的內容可能是虛假的,我們周圍的景象和聲音也可能是機器的產物,但我們的上帝依然至高無上,聖經依然真理永存。在《提摩太後書》3章13節中,使徒保羅警告:「但作惡的和迷惑人的,必越久越惡,他們欺騙人,也被人欺騙。」在這個特殊的時代,許多欺騙行為都源於人工智能。然而,保羅明確地告訴我們,面對這種欺騙,我們該如何應對。提摩太後書3:14-17宣告:「但你所學習的,所確信的,要存在心裡;因為你知道是跟誰學的,並且知道你是從小明白聖經,這聖經能使你因信基督耶穌,有得救的智慧。聖經都是神所默示的(或作:凡神所默示的聖經),於教訓、督責、使人歸正、教導人學義都是有益的,叫屬神的人得以完全,預備行各樣的善事。 」耶穌在約翰福音14章16-18節告訴我們:「我要求父,父就另外賜給你們一位保惠師(或作:訓慰師;下同),叫他永遠與你們同在, 就是真理的聖靈,乃世人不能接受的;因為不見他,也不認識他。你們卻認識他,因他常與你們同在,也要在你們裡面。我不撇下你們為孤兒,我必到你們這裡來。」若你尚未為自己的罪悔改,並將生命獻給上帝,我懇切勸你此刻就這麼做。 2025年即將結束,我們衷心感謝各位對本事工的鼎力支持。我們期待2026年將是充滿意義的一年。我們將一如既往地竭盡所能,及時向大家通報與神的話語相關的時事要聞。如果您有任何禱告事項,無論大小,都歡迎您告訴我們。我們必認真對待每一項禱告請求。願主耶穌基督的恩典與你們同在。阿們。 Samuel David Meyer
本通訊的出版離不開各位支持者的慷慨捐贈。如果您也想幫助我們,您可以將捐款寄至我們的郵寄地址,或造訪http://lasttrumpetnewsletter.org/donate線上捐款。
參考
01.
Merriam-Webster’s Dictionary, merriam-webster.com/dictionary/artificial. |