2025 年,瑞士在人工智慧(AI)監管與技術應用領域邁出關鍵一步,成為全球 AI 監管的標竿。隨著 AI 技術的快速發展,如何在促進創新與確保技術合規之間取得平衡已成為各國政府關注的焦點。今年瑞士政府提出的 AI 監管框架,不僅受到歐盟《人工智慧法》(AI Act)的啟發,更強調負責任、透明與包容的原則,以確保 AI 技術不會損害基本權利與民主價值。
瑞士政府的監管舉措涵蓋多個層面,包括 AI 算法的公平性、自動駕駛技術的合規性、社群媒體平台的責任,以及專屬語言模型的發展。在智慧交通領域,瑞士今年正式允許自動駕駛車輛在道路上運行,展現其對技術創新的開放態度。而在語言模型應用方面,瑞士政府與聯邦理工學院合作開發了一款專屬於醫療與製藥產業的 AI 模型,被譽為“瑞士版 ChatGPT”,意圖在高專業領域掌握技術主導權。
然而在 AI 監管加強的同時,歐洲對 AI 技術帶來的隱私風險也越發警惕。中國 AI 新創公司 DeepSeek 在 2025 年 1 月推出聊天機器人 R1,標榜其 AI 模型的運營成本比 OpenAI 的 ChatGPT 更低,且能耗更少。然而這項技術優勢並未減輕歐洲市場的疑慮,反而讓監管機構加強審查該公司的數據管理策略。
歐洲監管機構的擔憂主要集中在 DeepSeek 的數據收集與傳輸機制上。義大利、愛爾蘭、比利時、荷蘭和法國的數據保護機構 已經針對 DeepSeek 的數據政策展開調查,特別關注其是否違反歐盟《通用數據保護條例》(GDPR),以及個人數據是否被傳輸至中國。基於這些疑慮,義大利政府已暫時封鎖 DeepSeek 的 AI 應用程式,要求該公司提供透明的數據處理資訊,包括收集哪些數據、用途為何、數據儲存地點,以及是否已用於訓練 AI 模型。
這一事件並非孤立現象,而是全球 AI 監管趨勢的一部分。過去幾年西方國家對中國科技公司的數據處理方式抱持審慎態度,華為與 TikTok 便是明顯的例子。如今 DeepSeek 作為中國 AI 產業的重要新勢力,在全球競爭格局下,正面臨更嚴格的審查與挑戰。
瑞士 AI 監管的推進與歐洲對 DeepSeek 的審查,反映出當前 AI 產業面臨的兩大核心議題:技術創新與數據隱私。瑞士選擇透過制定清晰的監管框架,在保障人權與推動技術發展之間尋求平衡,而歐洲則採取強硬立場,要求 AI 企業在數據透明度與隱私保護上達到更高標準。這些監管趨勢顯示,未來 AI 公司的跨國發展不僅要展現技術優勢,還必須在數據合規與隱私保護上做出更多努力。
在這場 AI 監管與全球競爭的較量中,DeepSeek 若希望拓展歐洲市場,勢必要在數據透明度、合規性和隱私保護措施上進一步調整。未來 AI 企業若要成功進入不同市場,將不再只是技術競賽,而是法規遵循、倫理責任與社會信任的綜合挑戰。瑞士模式是否能為全球提供 AI 監管的最佳解方,仍值得密切關注。
※作者為中台灣教授協會理事長,任教於台灣師範大學