成『jiāo』談物件是否讓你覺得,對方是一個讓你滿意的智慧,與原來的標準相比,這個標準模糊了很多,所以,後來嚴可守又引入了打分制,將AI的表現從高到低分成6個等級,最高5分就是測試者對被測試的物件非常滿意,並願意與之『jiāo』流,最低0分就是完全無法『jiāo』流,等同於『jī』同鴨講。
這樣做的最大好處,就是讓AI在某種程度上改變了原先為了“透過測試”,不顧一切的那種策略,因為AI如果繼續採用不理睬使用者的策略,只能獲得零分,這樣一來,就打破了之前那種“沉默死鎖”,也讓一些AI在測試物件的影響下,具備了一些初步的“道德”,就好像KL3300一樣,原先的“不擇手段”是最優選擇,而現在老實承認自己不會寫,才是最優策略。
但改變AI的『jī』勵規則並不意味著一切就都能迎刃而解,給一個普通人再大的『jī』勵,他也不能長出翅膀飛上天,對於AI也是如此,人類想讓AI寫日記,想讓AI和自己猜謎語,甚至想和AI談人生理想,但也要AI具備這些功能才行,在“道德”因素介入之後,許多AI一下子就『lù』出自己的本來面目,許多測試者反應,被測試的AI好像“變笨”了。
而在這個過程中,AI的表現和相應的測試物件,也出現了讓人驚奇的對應關係,總結資料之後,嚴可守發現,在打分過程中,越是傾向於“禁止AI撒謊”的測試物件,AI的表現就越差,而那些“允許AI為了談話過程的有趣,在一定程度撒謊”的使用者,相應的AI表現和過去還是相差不大。
以前的AI或許還可以騙騙小孩子,但現在許多AI練正常說話都不可能做到,在一些要求特別苛刻的測試物件那裡,AI幾乎變成了啞巴。
比如,AI的話當中,不再提到類似擬人化的語句,比如我想,我認為,也不再出現專屬生物的動作,比如看,聽,說,在一些要求特別苛刻的測試物件那裡,AI只能回答一些純理『xìng』問題,比如問14+5等於多少,回答19之類。
以往那些個『xìng』格分明,有職業,有身份,有理想,說話比人還像人的AI,在短短半個月之內,又統統消失不見了,有些測試者甚至懷疑,是不是設計人員透過某種技術方式,“強行”降低了這些AI的智商。
比如之前『mí』戀KL0564的井上海,在KL核心程式修改之後,幾次測試都是失望而歸,連說自己心目中那個KL0564已經永遠離開了。
在褪去了謊言的華麗外衣之後,AI的表現逐漸恢復了它應該有的程度,雖然這對於某些參與測試的人員來說,可能意味著趣味『xìng』的降低,但對於嚴可守來說,這才算是真正腳踏實地邁出了第一步,作為一項科研任務,日後甚至可能起到實用作用的“智慧技術”,嚴可守不可能只滿足於讓AI學會哄人開心。
………【316 田軍的選擇】………
『mí』『mí』糊糊中,田軍睜開眼睛,但這和不睜開沒什麼兩樣,周圍是一片徹底的黑暗,他伸出手,下意識的『mō』了『mō』在手邊的匕首,就像握住了一塊冰,這觸感讓他感到心裡發寒。
肚子因為飢餓,傳來一陣空鳴,這聲音在這封閉狹小的空間裡,聽的特別清晰,食物就在自己不遠的地方,但田軍並不沒有去取來吃的意思,只是沉下心來,仔細傾聽者來自這『yīn』暗『dòng』『xùe』中可能發出的任何一點聲音,任何一點。
在這種無邊的黑暗中,人對時間的感官完全失去了掌控,這讓田軍想起,自己被伊凡第一次抓進空間時的樣子,那白『sè』的無重力世界,人呆在其中,就好像一具漂浮的屍體,但跟眼前自己的境遇比起來,田軍感覺,那就是天堂。