為了提升服務質素,我們會使用Cookie或其他類似技術來改善使用者的閱讀體驗。如想了解更多請到這裡>。如果接受請點確認按鈕進入網站。
研究團隊進行了兩項關鍵研究。第一項研究中,501名美國成年人比較了GPT-3.5-turbo模型與人類參與者提供的道德解釋,結果顯示GPT的解釋被認為更符合道德標準、更值得信賴且更周到。
在第二項研究中,研究人員將GPT-4o生成的建議與「倫理學家」專欄中著名倫理學家Kwame Anthony Appiah的建議進行比較。900名參與者對50個「倫理困境」的建議進行了評分,結果顯示GPT-4o在幾乎所有方面都超越了人類專家。AI生成的建議被認為在道德上更正確、更值得信賴、更周到,並且在準確性方面也更勝一籌。
需要注意的是,這項研究僅針對美國參與者進行,未來還需進一步研究以探討不同文化背景下人們對AI生成的道德推理的接受度。
儘管如此,這項發現已經引發了關於AI在道德和倫理決策中角色的重要討論,展示了人工智慧在這一領域的應用潛力。研究人員提醒,儘管AI在道德推理方面表現出色,但仍需謹慎對待其建議,特別是在缺乏人類監督的情況下。