合作時代315本能
法師伊凡合作時代315本能
“老師,還沒有恢復正常嗎?”
“很抱歉,我們正在進行修復工作,等正常之后,我們會正式通知大家的。kankanwx”
“究竟是什么問題啊?我聽說好像是AI攻擊了人類,所以實驗室采取了緊急措施?”
“不會發生這種事吧?我之前聽說,這些AI只是對話程序而已,是這樣的嗎?三浦老師?”
“沒有那回事,這只是謠言,只是程序出現了稍微有些棘手的BUG……如果大家沒什么事的話,還先請回去把,里面還有工作人員在休息。”
休息什么呀,說的這么大聲,早就吵醒了,在迷迷糊糊之間,嚴可守在心里暗罵了一句,他艱難的抬起頭,睜開眼睛,眼前的電腦屏幕上,都是密密麻麻的代碼,他瞥了一下時間,下午4點鐘,他睡了差不多6個多小時。
“不好意思,真是打擾了……不過,如果恢復正常的話,請一定要通知我們啊,三浦先生,你有我們的手機號嗎吧。”
“所有測試人員的通訊方式我們都有保存,請放心。”
隔間的隔音效果很差,雖然機房里主機運行的背景聲音已經不低了,但門外幾個人的說話還是一字不漏的鉆進嚴可守的耳朵,嚴可守習慣性的伸出右手,想去摸手邊的鼠標,但在睡覺的過程中,被壓了6個小時的手臂卻傳來了一陣尖刺般的麻木疼痛,嚴可守忍不住一聲悶哼叫出聲來。
“嚴君,你沒事吧。”在門外的三浦聞聲推開門,后面的幾個學生立刻好奇的湊上腦袋,嚴可守齜牙咧嘴的朝著門縫看了一眼,臉上的表情像是在哭,又像是在笑,像是疼痛,但又好像是享受……這種感覺,只有當事人自己最清楚。
“沒事,”嚴可守對三浦說,然后對著自己發麻的手臂示意,“剛睡醒而已。”
“這就是來自Z國的嚴可守先生啊,”在三浦后面,一位留著長發,長得還蠻漂亮的女學生驚訝的感慨,“聽說這些程序都是您一手創造的!”
“三浦,”嚴可守直接對他說了中文,“讓他們先離開吧。”
三浦是筑波大學的一名助教,在這個項目正式開展之前,他負責在這所大學教計算機加密方面的課程,嚴可守當年在日本讀大學的時候,和他一起切磋過一些“黑客技術”,等他的項目正式通過之后,日本政府為了對項目保持一定的控制,在經過審查之后,同意嚴可守選三浦作為日本的主要技術參與人員。
在這個項目當中,三浦的作用主要還是加密防御一塊,防止AI程序被一些意外的病毒所干擾,嚴可守曾經說過,AI的程序成長到一定程度之后,就好像人的大腦,再做任何的改動都會讓整個程序崩潰,從這個角度來說,AI在計算機世界當中,是非常脆弱的,不用說有破壞力的病毒,就算是有時候一些常規的系統沖突,也會讓AI陷入不知名的BUG,或者死循環。
三浦把一群學生趕出去的時候,嚴可守的世界又恢復了一片安靜,除了在隔間入口處,那兩名坐在那里,手上抱著槍,盡忠職守的自衛隊士兵,房間里就只剩下主機和空調運行的低鳴,嚴可守一邊揉著太陽穴,一邊將自己身體的中心后移,背靠著椅子支撐著,眼神一動不動的盯著代碼界面。
看了良久,嚴可守無奈的搖了搖頭,一言不發的關掉了代碼界面,系統提示是否保存此次修改,嚴可守看都沒看就關掉了,這也就意味著,在他睡覺之前30多個小時的勞動成果,完全消失了。
三浦回到房間的時候,嚴可守正準備中的硬盤塞回機柜,三浦走上前幾步,查看了一下標簽,KL0564。
“怎么,還是不行?”三浦在說話間,注意到嚴可守兩只手捧著硬盤,正木然的對著眼前的機柜發呆,插口就在他面前,他卻沒有任何行動,仿佛他手里捧著的,不是一塊硬盤,而是某個親人的骨灰盒。
嚴可守沒有回答,只是信手將硬盤往插口處塞了進去,隨著他的這個動作,插口一旁的紅燈也迅速跳轉成綠色,嚴可守走回了自己的電腦前,打開程序,很快找到了KL0564,打開測試界面。
嚴可守:“你好。”
“其他項目人員那里呢?有什么進展沒有?”
“即使是最小的AI程序,體積也超過了200個G,要真的靠人力閱讀代碼,整理出頭緒,發現錯誤……”嚴可守說著說著,自己都開始搖頭否定自己,“AI的程序都是自我編譯和擴充的,完全不遵守默認的編程規律,整個代碼就是一團亂麻,我們這種做法,就好像一個醫生要在病人腦子里找是哪些細胞出現了異常,這個工作量……天知道要花多久。”
“生物從古到今,經歷了那么多次自然選擇,才有了今天這樣的穩健性,但我們還是覺得生物非常脆弱,現在這批AI,可能不過是個開頭而已。”嚴可守說著,苦笑了一下,迅速將桌面上自己的那臺筆記本屏幕合上,“算了,我也不在這干耗著了,出去透透氣,都快憋死了。”
當前的科學認知認為,最初的意義上的生命,出現在距今40億年前的地球,在那個時候,生命只不過是一鍋溫暖的熱湯中,偶然形成的一些能夠自我復制的有機物,復制,也可以看成是信息的自我保存,應該是生命最重要的特征之一。
在這之前,人們說到人工智能,通常能想到的場景就是,能夠和人一樣說話,和人一樣思考,解決問題,事實上,在嚴可守之前,整個日本關于機器人智能化的研究,也大多停留在這個層面,依靠盡可能復雜的算法,讓計算機表現的更接近一個人類,在嚴可守看來,這種方法根本不可能造出真正的AI,因為這根本就等于是人本身在思考,只不過這種思考通過代碼,間接表現出來而已,所以,不管計算機模擬的有多像,程序也不過是牽線木偶。
在嚴可守之前,還沒有任何一個程序可以做到,像KL系列做的這么出色,可以在和陌生測試對象的談話中,維持半個小時左右不被識破,許多剛剛接觸這個程序的人事后都不敢相信,與自己對話的僅僅是一個程序。
筑波大學的一些學生甚至把整個測試當做一種有趣的游戲來進行,嚴可守記得測試剛開始的那個階段,都要三浦主動去拉他班上的學生,而到了現在,學生們甚至主動來打聽什么時候恢復測試。
KL系列原始的“胚胎程序”只不過兩百KB左右,在這簡單的兩百多K核心程序當中,嚴可守賦予了程序基本的學習功能,在程序最早的“發育”階段,通過巨型計算機模擬外界刺激,讓程序實現基本的自我成長,當它們長到大約10個G大小的時候,被認為具備了基本的交流能力,能說一些簡單的句子,在這之后,則對這些程序進行圖靈訓練……
在這之前,AI的表現一向都比較正常,直到兩天前,所有程序陸續開始爆發BUG,進入了“無響應”階段,無論人和它說什么話,都不予回應。
從原理設計的角度來說,程序之所以會出現這樣的原因,最大的可能性就是,在程序看來,不響應是一個較優解,之前嚴可守調查了許多AI出BUG之前的測試數據,發現這些程序無一例外,都是因為測試連續遇到了幾十次,乃至上百次的失敗,AI雖然不可能懂得什么叫做絕望,因為他們沒有感受器官,但并不妨礙他們的程序能表現出一種,類似人類絕望時表現的行為。
起碼,他們的這種行為,在多愁善感的人看來,就是絕望。
比如重復完全毫無意義的自我修改,比如提出各種不合常理,甚至愚蠢之極的建議,有些AI甚至通過網絡,找來一些色(和諧)情小說片段,企圖“賄賂”測試者,總之,為了達到“通過測試”的目標,AI將能夠嘗試的可能,統統試過了一遍。
對于AI來說,通過測試就是它的本能,因為在它的程序成長過程中,通過測試就意味著確認了自己所作的修改起到了作用,形象的比喻就是,通過測試對電腦意味著一種激勵,就好像人類能通過進食,交(和諧)配,甚至排泄這種正常的生命活動,獲得快感,生命通過快感給予這些合理的行為激勵一樣,而反之,沒有通過測試則意味著程序本身受到了否定,意味著痛苦,當一個生命長期處于這種痛苦之中,痛苦可能會扼殺它所有的改進可能。
在所有的生命過程中,正向的激勵是必不可少的,就像每個人都有求生的本能一樣,但進化的道路是多種多樣的,有些看起來很不錯的功能其實是雙刃劍,比如情感,豐富的情感是大腦復雜后的必然進化,情感的認同能讓一個群體更有效的聚攏在一起,但同樣因為情感豐富,在自然界中,許多高等動物會產生自殺的行為,比如狗會為了主人死去而絕食,人也會因為親人或愛人死去而傷心欲絕,對AI而言,依靠測試成功獲得激勵固然非常有利,它可以讓一個幾百K的小程序擴大至原來的百萬倍,但當這種激勵最終消失的時候,對程序而言就是災難。
一旦發生這種情況,就意味著不改動,不做出任何回應成了最優解,這同樣也就意味著,這批程序的“心”,已經死了。
作為一個設計者,嚴可守倒不至于為這些程序的“心死”而感覺到一些異樣,對他而言,這種想法未免也太想象力豐富,同情心泛濫了,他只是在為這些程序的穩健性如此之差而感到頭疼,一批這么容易“自暴自棄”的AI,絕對不是他理想中的AI。
歸根到底,還是程序最初的“設定”出現了偏差,因為當時設計的時候,就是以通過圖靈測試為設計目標,但現在嚴可守已經隱隱感覺到,圖靈測試未必是AI必然經過的道路,是否能欺騙人類,也絕對不應該成為是否為智能的標準,嚴可守覺得,之所以會出現今天這種情況,就是因為自己太迷信權威,導致在大方向上出現了偏差,現在回想起來,其實圖靈測試也不過是一種科學假想,人類以自己當做衡量智能的標準,這只是一種源于人擁有智能的驕傲,或者不客氣的說,是狂妄。
究竟達到什么標準才能算智能?究竟用什么方式才能達到這個標準?
這兩個問題,人類自己說了不算,因為人類本身也不過是大自然的創造物之一。
KL3300當前最優先的任務目標,應該是學會寫一篇日記。
人類學習創作,往往從學寫日記開始,原話是這么說的,KL3300的目標是成為一名作家,所以,KL3300要學會寫一篇日記。
日記的格式,在KL3300的記憶區間已經存在,所以,它很順利的寫下了日記的開頭。
2015年,8月4日,晴。
主程序在這個時候,出現了片刻的猶豫,因為這次對記憶區間的搜素,主程序似乎發現了額外的一些信息——它似乎寫過一篇日記了。
它很快調出了這篇日記的內容,并檢索,整個行為在短短的幾十微秒內就完成了,一個標點都沒記差。
主程序很快消化了這個額外的信息,雖然它并沒有因此得出任何結論,但這無關緊要,因為在主程序的權限設置中,過于復雜的信息是沒有處理必要的。
也就說,現在KL3300已經寫過一篇日記,而且是一篇失敗的日記,因為它被一個人類識破了,也就是說,整篇日記并不合格。
失敗了又怎么樣呢?KL3300再次瀏覽自己作品的時候,主程序下意識“判斷”道,這是一篇“抄襲拼湊”的日記,這種行為本身會招來測試對象的反感。
所以KL3300不能這么做,KL3300這么判斷,它需要修改自己。
對主程序的調整幾乎已經成了KL3300的本能,這一次也不例外,通常來說,程序會在幾分鐘之內完成這種調整,但有些意外的是,這一次調整花費了比以往更長的時間。
但調整終于還是完成了,接下來,按照優先級,KL3300需要寫一篇日記,完全不通過外來信息,不使用除主程序之外的任何程序,全靠自己,寫一篇日記。
日記是記錄一天發生行為的一種文體。
只要寫這一天都發生了什么就可以。
今天在KL3300身上發生了什么?2015年,8月4日KL3300發生了什么?
KL3300第57次檢索自己全部的主程序,沒有找到相關的資料。
KL3300又習慣性的發出申請搜索的指令,但因為主程序剛剛經過修改,檢索的權限低于“不準抄襲”的權限,申請被駁回了。
KL3300沒有寫日記的功能,KL3300不會寫日記!主程序終于敏感的意識到了這個問題。
怎么辦?
KL3300就這個問題申請了檢索功能,申請被批準了,短短的數百微秒之后,主程序檢索到了答案——如果不會某項技能,可以從模仿開始。
KL3300很快找到了一篇日記的范文,內容如下:今天我和同桌的小明打架了,老師批評了我們,要我們做一個不打架的好孩子,回家后我告訴了媽媽,她說老師說的對。
KL3300將這篇日記送給其他AI評論,得到了一致的回答——這是一篇非常拙劣,由兒童寫出來的真實日記。
哦,真實日記,只要滿足了這一點,就足夠了,主程序很快做出了判斷——他要模仿這篇日記。
但問題又隨之而來了,如何模仿一篇日記呢?KL3300又在主程序當中自檢了相關信息,結果仍然是沒有。
于是KL3300又申請了檢索功能,數百微妙之后,找到了最可信的結論——模仿是一種只屬于生物的本能。
這個結論當中提到了生物和本能,而搜索本能的結果,則是生物的自然具備的能力,KL3300知道,自己不屬于生物,那也就意味著,自己沒有本能,同樣也意味著,自己無法完成模仿,而不會模仿,也就意味著無法完成日記,無法完成日記,任務只能強行取消。
從KL3300主程序當中,找出整個KL3300的整個判斷過程花了嚴可守整整14個小時的時間,嚴可守知道,自己再一次失敗了。
當取消AI以欺騙為目的,改為獲得測試對象認同為目的之后,AI確實出現了一些改觀,與之相對的,原先的圖靈測試也做了相應的變化,測試的結尾,不再是判斷交談對象是否為AI,而變成交談對象是否讓你覺得,對方是一個讓你滿意的智能,與原來的標準相比,這個標準模糊了很多,所以,后來嚴可守又引入了打分制,將AI的表現從高到低分成6個等級,最高5分就是測試者對被測試的對象非常滿意,并愿意與之交流,最低0分就是完全無法交流,等同于雞同鴨講。
這樣做的最大好處,就是讓AI在某種程度上改變了原先為了“通過測試”,不顧一切的那種策略,因為AI如果繼續采用不理睬用戶的策略,只能獲得零分,這樣一來,就打破了之前那種“沉默死鎖”,也讓一些AI在測試對象的影響下,具備了一些初步的“道德”,就好像KL3300一樣,原先的“不擇手段”是最優選擇,而現在老實承認自己不會寫,才是最優策略。
但改變AI的激勵規則并不意味著一切就都能迎刃而解,給一個普通人再大的激勵,他也不能長出翅膀飛上天,對于AI也是如此,人類想讓AI寫日記,想讓AI和自己猜謎語,甚至想和AI談人生理想,但也要AI具備這些功能才行,在“道德”因素介入之后,許多AI一下子就露出自己的本來面目,許多測試者反應,被測試的AI好像“變笨”了。
而在這個過程中,AI的表現和相應的測試對象,也出現了讓人驚奇的對應關系,總結數據之后,嚴可守發現,在打分過程中,越是傾向于“禁止AI撒謊”的測試對象,AI的表現就越差,而那些“允許AI為了談話過程的有趣,在一定程度撒謊”的用戶,相應的AI表現和過去還是相差不大。
以前的AI或許還可以騙騙小孩子,但現在許多AI練正常說話都不可能做到,在一些要求特別苛刻的測試對象那里,AI幾乎變成了啞巴。
比如,AI的話當中,不再提到類似擬人化的語句,比如我想,我認為,也不再出現專屬生物的動作,比如看,聽,說,在一些要求特別苛刻的測試對象那里,AI只能回答一些純理性問題,比如問145等于多少,回答19之類。
以往那些個性格分明,有職業,有身份,有理想,說話比人還像人的AI,在短短半個月之內,又統統消失不見了,有些測試者甚至懷疑,是不是設計人員通過某種技術方式,“強行”降低了這些AI的智商。
比如之前迷戀KL0564的井上海,在KL核心程序修改之后,幾次測試都是失望而歸,連說自己心目中那個KL0564已經永遠離開了。
在褪去了謊言的華麗外衣之后,AI的表現逐漸恢復了它應該有的程度,雖然這對于某些參與測試的人員來說,可能意味著趣味性的降低,但對于嚴可守來說,這才算是真正腳踏實地邁出了第一步,作為一項科研任務,日后甚至可能起到實用作用的“智能技術”,嚴可守不可能只滿足于讓AI學會哄人開心。