選戰中可能的AI濫用
現在AI技術日漸發達,不僅可以模仿出某個人的聲音編造謠言,還可以非常簡單且快速地產生各種情境模擬圖、廣告,甚至還可以藉由追蹤網路足跡,為每個選民量身打造「為你而生」的專屬競選廣告。這些廣告不僅以假亂真,更可怕的是招招刺中你心,不想被影響都很難。為了防止未來的選戰陷入全面的人工智慧應用戰爭,許多人已經開始在討論選中的AI應用是否應該受到管制。有些專家甚至擔心,現在才開始討論管制,已經有些遲了!
Read more現在AI技術日漸發達,不僅可以模仿出某個人的聲音編造謠言,還可以非常簡單且快速地產生各種情境模擬圖、廣告,甚至還可以藉由追蹤網路足跡,為每個選民量身打造「為你而生」的專屬競選廣告。這些廣告不僅以假亂真,更可怕的是招招刺中你心,不想被影響都很難。為了防止未來的選戰陷入全面的人工智慧應用戰爭,許多人已經開始在討論選中的AI應用是否應該受到管制。有些專家甚至擔心,現在才開始討論管制,已經有些遲了!
Read more相信大家都有過面試的經驗,面試時總是要東挪西挪時間才有辦法勞資雙方對上,相當耗費時間與精力。不過這個問題已經可以透過人工智慧來解決囉!目前已經有非常多企業改採用請面試者上傳錄製的影片,再利用自動化的視訊面試系統進行篩選。但這樣的方式也不免會讓人產生疑慮,懷疑AI系統的評斷是否準確與公平。本文將會詳細說明自動化面試系統是從哪些方面蒐集資料,並進行數據的判讀。總歸來說,雖然人工智慧已經具有協助面試的能力,但依然面臨著諸多挑戰,在勞資雙方的信任度都遠不及人力資源部現行的心理學量測工具,有待我們持續精進。
Read more歐盟議會通過全球第一部完整管制AI的法律,其中全面禁止人臉辨識於公共場合的即時使用,除了隱私權、種族平等的考量之外,許多議員也認為這樣的大規模監控逾越了民主國家的底線。
Read moreAI是複雜的新興科技,未來會受到怎樣的管制難以預知。本文從既有的管制政策出發,提醒讀者可以注意三個主要的政策工具:內部程序、外部審計、公平交易。
Read more如果你想要瞭解一個人,你會怎麼做呢?其實最簡單也最好的方式,就是跟他聊聊天,傾聽他所說的話。在當今這個科技越發成熟的時代,自然語言處理技術可以幫我們分析、歸納很多事情,甚至是幫人資、主管判斷底下員工的工作態度!先別急著譴責AI只幫助資方!其實它也可以幫助求職者分析目前市場最需要的關鍵技術,並推薦相關的學習課程,讓你能成為大家搶著要的人才!總而言之,AI與人力資源領域的跨界合作,在未來還有很多很多值得期待的火花。
Read more在中國發展AI,需要承擔因審查制度而產生的額外成本,分析家認為,這也使得大企業更可能獨佔AI的發展。其中一個因應方式是從訓練資料下手,但這並非萬全之策。
Read more單憑技術發展,並不足以讓人們信任AI,那麼,到底什麼才是讓人相信的關鍵?一篇2023年關於信任的社會學發表,調查橫跨17個國家的人們對於AI的態度是如何,研究結果發現有「值得信任的人」參與AI的研發、使用與管制,仍是AI取得信任的關鍵。
Read more生成型AI藉由原始資料訓練,進而有所產出,在這個過程中,是否會衍生智慧財產權的爭議?這篇文章區分兩個層次的問題:「輸入」層次上使用原始資料是否經授權,以及「輸出」層次上AI產出是否將與原作者競爭。
Read more許多報導中提到AI的「不公平」,其實都是來自「原始資料中就已經存在的」群體差異。對於這個問題,有些討論強調「原始資料可能不準確,導致預測失準」,但在這個問題之外,我們也可以討論,預測準確真的是AI發展當前的唯一目標嗎?為此,文章中也介紹了「統計歧視」這個概念,幫助大家進一步思考這個問題⋯⋯
Read more自新冠肺炎爆發開始,各種關於到底要怎麼戴口罩、判斷症狀的依據或是接種疫苗到底有沒有幫助的資訊紛紛在社群網絡上散播開來,不實資訊在社群媒體上散播已不是新鮮事。不實資訊除了透過社群媒體散播開來之外,在現今幾乎成為我們生活中不可或缺的線上購物平台上,有沒有可能是另一個加速散播不實資訊的溫床?
Read more《CSI:犯罪現場》裡常有跡證檢驗的橋段,透過分析採集到的微量DNA,鎖定嫌疑人的身分。但如果一件證物上留有太多人的DNA呢?
Read more幾家著名的科技巨頭正在經歷一場反壟斷風暴,但分割並縮小它們的規模就能解決問題嗎?
Read more以假亂真的誘餌文件混淆駭客視聽,使其無法分辨出到底哪一項才是真正有價值的資訊。
Read more