Ann Johnson在中風損害了其平衡能力以及呼吸和吞咽能力后,約20年一直無法行走和說話。但在2022年,一個腦植入物終于能讓Johnson聽到了自己的聲音。該植入物是過去5年神經技術進入人體試驗階段的例子之一。這類由埃隆·馬斯克創辦的Neuralink等公司開發的設備,可以改變神經系統的活動以影響言語、觸覺和運動等功能。近日,聯合國教科文組織(UNESCO)在法國巴黎舉行了一場會議,與會代表最終確定了一套管理神經技術的倫理準則。
這些準則側重于保護用戶免受可能侵犯其人權的技術濫用,包括自主權和思想自由。這些包括科學家、倫理學家和法律專家的與會代表們最終確定了9項準則。其中包括建議技術開發者披露神經信息如何被收集和使用,以及確保產品對人的心理狀態的長期安全性。
“這份文件闡明了如何保護人權,特別是與神經系統相關的人權。”智利圣地亞哥大學的神經科學家Pedro Maldonado說,他是起草準則的24位專家之一。這些準則不具有法律約束力,但各國和組織可以用它們來制定政策。今年11月,UNESCO的194個成員國將投票決定是否采納這些準則。
在美國和歐盟等地區,針對植入式腦機設備已有立法。但消費級非醫療設備,如可穿戴設備,受到的監管較少。參與起草準則的美國麻省理工學院的神經技術學家Nataliya Kosmyna表示,這些設備因快速規模化的潛力而引發倫理擔憂。
其中一個擔憂是,眼球運動和語調等信息可能被用來推斷神經數據,包括某人的心理狀態或大腦活動。專家們擔心,當用戶不知情時,例如在睡眠期間,這種活動可能在沒有用戶同意的情況下發生。
德國慕尼黑工業大學的倫理學家Marcello Ienca表示,商業神經設備已經構成了數據和安全風險,特別是對“精神隱私”的風險。“關于大腦和心智的數據應該受到加強保護,以防范心智信息未經授權地泄露。”他說。
保護精神隱私的一種方式是通過用戶同意。UNESCO建議,這些同意需要是“事先、自由且知情的”,并且應包含隨時退出使用技術的選項。
但未參與會議的美國喬治·華盛頓大學的技術倫理學家Vikram Bhargava認為,知情同意并非萬無一失。“那些神經數據不僅提供了關于你的信息,還可能提供關于其他具有相似神經特征的人的信息。”
其他人則不同意這一觀點。“人們思考方式的相似性更多與其居住地、生活方式有關,而不是與大腦運作方式有關。”Maldonado 說。
盡管如此,“擁有一個各國承諾遵守的全球標準是非常有力的。”美國杜克大學的法律學者兼倫理學家Nita Farahany說。
但美國在人工智能等領域出現的監管放松態勢表明,法律工具可能不是解決方案。Farahany 說,相反,各國應鼓勵開發者設計更多能為用戶提供保護的功能。