公平公正的AI,可能嗎?

在這逐漸自動化的世界裡,許多金融或政府機構已開始利用AI來審查貸款、社會福利、簽證,甚至於職缺應徵資格。但AI就像是一面鏡子,如實地反映訓練集中的資料,也難免透露出背後人類固有的偏好與社會不公,導致演算結果對弱勢族群的歧視,甚至因行政效率的提升,加速剝削的發生。「演算法的公平性與透明性」於是逐漸受到重視,歐盟更試圖將「可解釋AI」編入法律,要求所有「個人化自動決策」(Automated Individual Decision-Making)賦予用戶請求解釋的權利,並確保訓練數據的中立,不得讓任何用戶的權益因此受損。只是,如「黑盒子」般神秘又複雜的神經網路,其判斷依據可能就連開發者都理不清。

Read more

AI如何影響銷售行為

AI正觀察著每一個人在網路上的一舉一動,也包括正在看這篇文章的你。在Netflix上搜尋影片時,你可曾注意到不同帳號的推薦片單不盡相同?當你在Amazon上瀏覽商品時,是否注意到頁面上總會出現相似的推薦商品,或適時提供一些讓人心動的折扣活動?你可能也有找景點與飯店的經驗,是不是也意外地發現在那陣子跳出來的廣告,都與搜索過的景點相似呢?這些都拜大數據與AI之賜。當消費者的生活因為貼心與精緻的服務而更加智慧化的同時,業者的利益也隨之最大化。

Read more