今天看到UCL的Nilli Lavie教授在Linked上分享了一則新聞 Conversations really do fall on deaf ears when you are texting: Research shows your brain is to blame as it stops you listening when using smartphones 當時不疑有他,想說作者都分享了,應該沒有太大的問題,快速瀏覽後感覺是沒甚麼問題,所以就分享了。結果找到原文一看,ㄜ… 只能說記者「想很大」,這研究根本沒有用到智慧型手機,為了避免台灣媒體亂抄,趕緊寫一下。
那這個研究究竟在賣什麼膏藥呢?這個研究其實想要探討究竟視覺和聽覺的處理是否涉及共同的資源,以至於過度專注在看東西時,聽覺的處理會變差。在實驗中,他們要求實驗參與者要判斷畫面上出現的字母是X或是Z,有的時候畫面上只有一個英文字母 (低負荷),有的時候會有多個字母 (高負荷)。字母只會短暫的呈現,此外在一半的情境下,有個短暫呈現的聲音會伴隨字母出現,實驗參與者會被告知這個聲音只是要來幫助儀器作定位用的,所以不需要理會這些聲音刺激。
在實驗參與者進行作業的同時,研究者透過磁電圖 (Magnetoencephalography, MEG) 來記錄實驗參與者大腦中的變化。結果他們發現,在高負荷且有聲音刺激的狀況下,實驗參與者視覺區的神經細胞活動會較低負荷狀況下來的活躍,但是聽覺區的神經細胞活動則會較低 (參考下圖的B &C)。另外値得一提的就是低負荷組在有聲音的狀況下,會有一個較明顯的p3波 (刺激出現後300毫秒左右出現的腦波變化),顯示他們對於聲音刺激是比較有注意到、比較有感覺的。
為了釐清實驗參與者在高負荷的狀況下對於聽覺刺激的處理是比較不好的,研究者作了一個後續的實驗,在這個實驗中他們使用了和前一個實驗相同的刺激材料及設計,但他們明確告訴實驗參與者必須注意視覺和聽覺刺激,不過強調視覺刺激的處理是比較重要的。結果他們發現,高負荷的視覺刺激,會降低實驗參與者對於聽覺刺激的處理 (正確率由92%下降為88%),即便被告知也要處理聽覺狀態的處理下。
看到這裡,大家應該可以知道為什麼我說記者「想很大」了吧!這研究真的沒有要求實驗參與者滑手機啊… 不過這研究確實證實了,視覺和聽覺處理可能有部分是仰賴同一筆資源,所以如果將資源投注在處理A作業上,就沒有足夠的資源可以處理B,也就是為什麼在視覺高負荷的情形,對於聽覺得處理會變的比較不好。那是否可以用這個研究來告誡世人:不要邊開車邊滑手機?可能不是特別好的證據,因為這研究比較關注的是不同感官系統間的資源競爭,而分心作兩件事情與專心作一件事情的差異。但下次有人在滑手機時若聽不到你在跟他講話,可能要原諒他,因為視覺系統佔據太多資源了,以至於聽覺系統無法正常運作。只是,在這實驗中的高負荷狀態真的非常困難,所以是否能夠和生活中滑手機看看臉書或line作比較,値得進一步探究。
去看研究的原文 Inattentional Deafness: Visual Load Leads to Time-Specific Suppression of Auditory Evoked Responses (可以免費瀏覽全文)
去看主要研究者Nilli Lavie教授的網頁,Lavie教授的研究專注在注意力的運作上