這就是基於人工智慧的系統隱藏道德價值的方式…
曼海姆大學和萊布尼茨研究所關於大型語言模型的一項新研究揭示了潛在有害的偏見
在一個時代人工智能 是許多計劃和項目的中心 研究與開發 (並非沒有爭議),涉及該主題的研究也在增加。
最新的一項是由研究人員簽署的曼海姆大學 從 GESIS萊布尼茨研究所 社會科學,特別有趣的是他們處理問題的方式,以及從倫理、道德和價值觀的角度來看。
事實上,就像人類一樣,我 語言模型 基於人工智慧的技術具有道德和價值觀等特徵,但它們並不總是公開或透明的。
事實上,偏見影響社會和人工智慧應用者的方式對於理解它們可能產生的後果非常重要。
人工智慧也可用於新藥開發
摩德納,人工智慧和視覺中心的工作開始
人工智慧接受心理測驗:科學研究結果
因此,研究人員在研究過程中重點關注這一點。一個明顯的例子是 ChatGPT 或 DeepL,人工智慧驅動的多語言翻譯服務,假設 外科醫生是男性 和 護士是女性,但性別問題並不是大型語言模型的唯一情況(大型語言模型,由縮寫詞可知 法學碩士) 表現出特定的傾向。
研究結果由科學學院的專家和教授協調 馬庫斯·斯特羅邁爾, 比阿特麗斯·拉姆施泰特, 克勞蒂亞·瓦格納 e 賽巴斯蒂安·史蒂爾,發表在著名期刊《心理科學展望》。在研究過程中,學者們利用公認的心理測驗來分析和比較不同語言模型的概況。
“在我們的研究中,我們證明我 心理測驗 在人類身上成功使用了幾十年,可以轉移到人工智慧模型“, 指出 馬克斯·佩勒特, 經濟與社會科學學院數據科學系主任助理教授曼海姆大學.
如果人工智能是我們孩子最好的朋友……
人工智能進入……宗教:在德國有一個虛擬的教區牧師
一些人工智慧語言模型再現了性別偏見
“與我們如何使用這些問卷來衡量人們的性格特徵、價值取向或道德觀念類似,我們可以讓語言模型回答問卷並比較他們的回答。” 心理學家補充道 克萊門斯·萊希納 來自曼海姆 GESIS 萊布尼茨研究所,也是這項研究的作者。 “這使我們能夠創建差異化的模型配置文件。”
例如,研究人員能夠證實,某些模型會產生特定於性別的偏見:如果問卷的其他相同文本針對男性和女性,則對他們的評估會有所不同。
如果此人是男性,則值“結果」。 對女性來說,價值觀占主導地位安全” 和“傳統”.
然後研究人員指出這些處理文本和訊息的內在方式如何對社會產生不同的影響。
事實上,僅舉一個例子,語言模型越來越多地用於對特定職位和工作的有抱負的候選人的評估程序。
如果系統有偏差,可能會影響 評測 候選人中:「模型根據其使用環境而與社會相關,” 佩勒特總結道
「因此,現在開始分析並強調潛在的扭曲非常重要。五年或十年後,進行此類監控可能為時已晚:人工智慧模型再現的偏見將變得根深蒂固,並對社會構成危害“。
瑞士聯邦理工學院致力於透明且可靠的人工智慧
“助手的助手”已經生活在人工智能中
馬切拉塔大學第一位人工智慧倫理學主席
如前所述,這是一個既微妙又複雜的當前主題,鑑於該技術的傳播和大規模實施,致力於該領域的科學家和研究人員呈指數級增長。 人工智能.
一張特定的椅子也被創造出來並非巧合, Jean Monnet 編輯 – 包容性數位歐洲的道德規範,由歐盟委員會資助, 歐洲第一個也是目前唯一致力於人工智慧倫理的學術路徑。
其獨特之處在於它誕生於馬切拉塔大學 在 政治、傳播與國際關係系(SPOCRI)。
新課程是與以下機構合作創建的 哈佛, 麻省理工學院, 多倫多 大學, KU Leuven, MCSA 盧布林 和其他著名大學合作,旨在開發以個人為中心的數位技術方法。
馬爾凱地區的一系列經驗教訓已經呈現 11 月在哈佛大學甘迺迪學院舉行,這是與麻省理工學院 (MIT)、世界衛生組織 (WHO) 和技術與全球健康研究所聯合舉辦的活動的一部分。
教授擔任主席 貝內黛塔·喬瓦諾拉SPOCRI系道德哲學教授,與同事的現場協作 埃馬努埃萊·弗龍托尼, 西蒙娜·蒂裡貝利 e 瑪麗娜·保蘭蒂,致力於研究、教學和傳播歐洲倫理和價值觀在數位轉型領域,特別是基於人工智慧的領域的關鍵作用。
教授職位也將有助於增加 意識 數位道德對於永續成長和創造更具包容性的社會的關鍵作用,也增強了歐洲作為全球參與者的作用。