全文引述Donald A. Norman在"設計與未來生活"第一章第二節,文長但值得一看。
---
我們朝向何方? 誰是主宰?
吉米向我說:「我的車子差點讓我發生車禍。」
「你的車子?怎麼可能?」我問。
「我在高速公路開車時使用適應性定速系統(adaptive cruise control),你知道,那種能使車子恆速進行,除非前面有車。當前面有車時,車子會自動減慢,以保持安全距離。我開了一陣子以後,車子越來越多,所以我的車就慢了下來。後來,到達了我要的出口,我就把車子開進右邊車道,離開高速公路。然而,當時的定速系統是已經調到低速很久了,連我都忘了我還在使用定速系統。可是車子可沒有忘記。我猜想它自言自語道:『好棒,前面終於沒有車子了。』然開始加速到在高速公路上設定的速度---僅管我是在出口匝道上需要慢速前進。幸虧我很警覺及時剎車,否則後果不堪設想。」
我們正處於與科技關連重要變化之際。直到最近,人都還在主宰機器。我們控制機器的開關、指示它做何操作並引導它完成一系列的操作。當科技變得更為強大更複雜,我們更不能瞭解到它如何作用,更不能預測它的作用。一旦電腦介入,我們經常感到失措、困擾、煩惱和氣憤。我們仍然自認為在主宰電腦,可是,機器已經逐漸替代我們。它們看似具有智慧和意志,其實不然。
機器注意我們的動作是出於善意,是為了安全、方便或是正確性。當一切都正常時,這些聰明的機器確是有幫助的:增進安全,減低重複動作帶來的無聊,使我們的生活更方便、且比我們操作時更正確。當一部車子忽然從前面擠進來時,我們的車子能自動平穩的慢下來,的確是件很好的事。同樣的,微波爐知道馬鈴薯已經熟了,也是件好事。可是,如果機器失敗呢?如果它做了不當的動作,或與我們爭著作主?吉米的車子注意到前面沒車,因此在出口匝道上以高速公路的速度加速前進?同樣的機器在正常狀況下很有用,然而在突發狀況下卻會降低安全,減少舒適性和正確性。對我們身處其境的人,它導致危險、不適、挫折和氣憤。
現今機器有了狀況時,大都用信號表達它們的狀況。當機器一有問題時,操作者在無預警的狀況下,沒有充份的時間下,需要介入並做適當反應。吉米幸能適時矯正機器的錯誤。如果他不能呢?他就會因引起車禍而受到責怪。諷刺的是:當一部所謂智慧的機器導致事故時,經常被歸罪於人為錯誤。
要使人和機器之間具有穩當的溝通,適切的方法是增進人和機器的協調與合作,可惜設計這些系統的人往往不瞭解這一點。機器如何去判斷什麼是重要的、什麼不重要,特別是在某些情況下重要的事,而在另一種情況下也許不重要?
我曾經告訴數家汽車公司的工程師,有關吉米和他的汽車的故事。他們聽完通常有兩種反應:第一,他們責怪開車的人。在駛入出口之前為何不關掉定速系統?我解釋說他忘了。他們下一個反應是:他不是一個好的駕駛員。這種「指責後加強訓練」的哲學常使責怪的人(保險公司、立法單位或社會)滿足:人如犯錯,加以懲罰。可是這並不能解決問題的根源。不良的設計、不良的程序、不良的設施,和不良的操作才是真正的元兇。人只不過是這一連串複雜過程的最後一步。
雖然汽車公司認為駕駛員應該記得車子自動系統現況的看法是對的,但不能做為不良設計的藉口。我們應該設計配合使用者的做法,而不是要規定他們該怎麼做。更何況車子的設計並不幫助駕駛員記憶,事實上,反而幫助他們遺忘。定速系統幾乎沒有給駕駛員任何有關系統現況的線索。最好車子能提醒駕駛人哪些系統正在使用中。
當我向設計汽車的工程師提起這個問題時,他們就提出第二項標準的反應:「是的,這是一個問題,不過,不必擔心,我們會改正。你說的對,導航系統應該知道車子到了高速公路出口匝道,然後自動關閉定速系統,或者至少改變安全車速的設定。」
這說明了一個基本的問題。機器並不聰明:智慧是在設計者心中。
設計者坐在辦公室內,試圖想像車子和駕駛員所有可能發生的事,然後想出解決問題的方法。可是,設計者怎樣能決定預期之外的事件該要如何反應?人遇到非常情況,可以應用有創造性、有想像力的方法解決。因為機器的智慧並非存於裝置中,而是在設計者的腦中。當非常狀況發生時,設計者不在場從旁協助,所以機器通常就會出問題。
對於未能預期的事故,我們有兩點認識:第一,它們經常發生;第二,它們發生的時刻,往往無法預期。
有一次,一家汽車公司的工程師給了我對吉米經驗的第三種反應。他承認也有過吉米的經驗。可是它提到另一個困難:變換車道。在繁忙的高速公路上,司機若要變換車道,須等到他要進入的車道有足夠的空檔,然後快速插入。這意味著,插入後,前面和後面的車距很短。定速控制器可能判定與前車距離太近,因而剎車。
我問:「這有什麼問題嗎?也許會惹怒對方,但安全上應無問題。」
「不,」工程師說:「這樣很危險,因為後面的車子不知道你會忽然插入又採剎車。如果後面的車子沒注意,他們會從後面撞上你。即使沒有撞上,後面的司機對你開車的手法也會很不悅。」
該工程師笑說:「也許車子應該裝上特別剎車燈,每當車子自動剎車時,此燈會亮起來。這樣可以告訴後面的車子:『嘿,不要怪我,是車子自動剎車的。』」
這工程師說這話是開玩笑的。然而他這席話道出人與機器之間的緊張關係。人採取行動時的原因很廣:有些是好的,有些是不好的,有些為別人設想,有些是鹵莽的。機器則比較一致,根據人們給它的電腦程式和邏輯,對一種狀況加以衡量。然而機器有基本的限制:它對外界的覺察和人不一樣,它們欠缺比較高層的目標,而且它們不能瞭解與它們共事的人的目標和動機。機器與人有著基本上的不同:某些方面比較強,特別像速度、動力和一致性;另些方面像社交技巧、創造性和想像力比較弱。機器欠缺它們行動對周遭的人會引起什麼影響的同理心。這些機器與人的不同,尤其是社交技巧和同理心,正是問題的癥結。更重要的是,這些差異(也是衝突)都很基本,不是能夠簡單改一下電腦程式邏輯,或補充一個感應裝置就可以解決的。
結果,機器的動作與人要做的起了衝突,在很多情況下這並無關緊要,例如,只要洗衣機能把衣服洗乾淨,我不在意它洗的方法與我的方法是不是一樣。一旦把衣服放進洗衣機,它就成了一個密閉自主的、自動化可行的環境。一旦啟動,機器就開始接手,只要我不加以干涉,它就能順利運作。
然而,在人與機器需要共同運作的狀況下呢?或是洗衣機開始運作後,我改變了心意呢?我如何讓它知道我要改變設定?新的設定何時開始?馬上開始呢?還是要等下一個加水的時段?這個例子說明了人和機器的反應不同,會是個重要的議題。有時候機器的動作看似反覆無常,然而,機器如果能夠思考和說話,我猜想它會向你解釋它的做法,並認為人類才是捉摸不定、反覆無常的。對使用者而言,這種持續的「人機互鬥」讓人挫折。而對一個觀察者來說,會深覺困擾,因為不清楚是誰在主控,和為何採取某種動作。人或機器,誰對誰錯並不重要,重要的是人機的不一致,導致了激憤、挫折,有時甚至造成損害或受傷。
人機之間動作的衝突是一個基本的問題,因為不管機器的能力如何,它們都不對周遭環境、對人的目標和動機,及對特書經常發生的狀況有足夠的瞭解。當機器是在一個控制良好的環境當裡,沒有令人討厭的人在旁邊干擾,沒有突發事件,且一切都能正確的預測時,它們會運作的很好。這種環境也是自動化的溫床。
但是儘管機器能對其所處的環境完全控制而操作良好,它們的表現也並不完全符合我們的期待。舉「聰明」的微波爐為例,它知道該用多高溫度、多少時間烹煮食物。當作用良好時,一切都很好:你只要把新鮮的鮭魚放進去,並告訴它要烹煮魚,時間一到,烹調的正好。使用須知上寫著:「感測器能測出烹調期間增加的溫度,且微波爐會自動調整不同量的食物所需的時間。」可是請注意這說明並未提到微波爐和人的煮法是否一樣,一個烹調者會試試食物硬度,看看顏色,或者量一下食物內部的溫度。微波爐不能做這些,所以只做它能做的:那便是濕度。它利用濕度來推論煮熟的程度。這個方法用到烹調魚類和蔬菜好像沒問題,對其它食品則並不盡然。且說感應系統的技術並非完美,如果時間到了,食物卻仍未煮熟,使用手冊警告說:「對同一道菜,不要連續用兩次感應系統,否則可能烹煮過度,甚或燒焦。」聰明的微波爐有其限度。
這類裝置有沒有幫助到居家的人?答案可以說有,也可以說沒有。如果機器能表達自己的意見,它們的口氣一會是非常辱人的,它不告訴人家為什麼它要這樣做,或它是怎麼做的,也不說它們在做什麼、做到什麼程度,結果不如所料時,該怎麼辦。我知道很多人有理由迴避使用這類的機器,他們想知道「機器為什麼這樣做?」機器和使用者手冊很少回答這問題。
科學家在世界各地的時實驗室當中,研究如何將更多的機器智慧引進我們的生活裡。有些實驗中的房子能感應到屋中人物的動靜、開關燈、調節溫度,甚至挑選音樂。正在進行中的項目不勝枚舉:冰箱拒絕讓你吃進不該吃的食品,馬桶洩漏你排出液體狀況給醫生。冰箱和馬桶看似不配的搭檔,但它們合作起來可以注意你的飲食習慣,控制你吃了什麼,然後,衡量和診視你排出了什麼。我們會有教訓人的體重計在注意我們的體重,運動器材指示我們使用方式,甚至有會尖叫的茶壺要引起我們的注意。
當更多的聰明裝置進入我們的日常生活,我們的生活會變得有好有壞。機器如能達成我們希望它們做的,那是好的,如果它們失敗,或導致本來很有生產力、創造力的人變成機器的僕人,隨時在監控、修理和維護機器,那就是不好的。這當然是不應該發生的事,可是事實卻是如此。現在還來得及嗎?我們能做些什麼?
---
當初看到這的論點時,感觸還滿深的。
回覆刪除其實不管到底怎樣才算是智慧科技,它的目的與限制為何,我們都忘了最基本的前提是,再怎樣的智慧,事實上都是人的智慧。
就像法律是人定的一樣,科技也是人定的。
設計者決定機器該用什麼功能,要用怎樣的介面,要如何去達到它。設計者其實也決定了,怎樣的功能叫做智慧。
所以我認為,我們應該要回歸基本,討論怎樣的功能是我們想要的,是我們需要的,然後是機器可以正確達到。