機器中隱藏的偏見

2021-09-23 11:55:27 字數 1229 閱讀 7608

儘管成為了近年來技術發展的里程碑,人工智慧(ai)仍然會受到意想不到的後果的影響。在2023年,微軟公司的twitter機械人tay在與平台上的同行學習之後,竟然發布了種族主義和非常不適當的言論。由於無法從社會學習中覆蓋和改寫惡意資訊,tay的帳號被關閉,仍然只能保持私密。

像tay這樣的其他事件也浮出水面。最著名的是谷歌公司的影象識別軟體。googlephotos在將一些非白人使用者標記為「大猩猩」後被指控種族歧視。谷歌公司聲稱這個事件是無意的,但仍然是乙個令人擔憂的問題,將乙個被忽視的**轉化為種族歧視問題。

不幸的是,像微軟公司和谷歌公司這樣的演算法仍然依賴於人類的輸入,並且其內容受到演算法引數的限制。這是tay無法通過網際網路確定真相,以及google photos無法區分一些非白人使用者與大猩猩的能力。然而,這個問題存在於比人們所知道的更多的演算法中。

這種基於機器的偏見源自人類程式設計人工智慧以自動化機器學習的時候。由於人類構建了用於訓練人造智慧型偏差的資料集,限制和人為錯誤可能會影響產出,故障原因在於人類從一開始就對這些機器進行培訓。

機器是人類互動的產物

有了人工智慧,人類就是木偶大師。引導機器處理用於對資料集進行分類的資訊是人類的輸入。在其最簡單的形式中,人工智慧分析已知值的資料庫中的陌生的輸入,以得到正確的輸出。就像在人類學習一樣,更多的演算法是輸入索引影象,軟體處理就會越準確。如果你使用數百張貓**訓練演算法,則可以將之前從未見過暹羅貓的**歸類為「貓」。但是,在受控環境中使用典型或完美影象訓練演算法時,可能會形成問題。如果開發人員不用代表不同條件的資料來訓練這些機器,則可能會出現併發症。

這些問題甚至可能影響影象處理軟體的意外應用,如條形碼識別。標準1d條形碼由包含編碼值的各種寬度的交替黑色和白色條紋組成。掃瞄器通過分析條紋之間的寬度並將其與預選的引數集進行匹配來處理寬度。如果由於光線不良或列印質量差,條形不明確,則計算機無法對編碼資料進行解密。在這些情況下,計算機能夠檢測各種潛在的匹配,但需要額外的資訊來識別正確的值。

例如,乙個人看到老虎和斑馬,並且能夠基於他們是不同物種的知識來區分兩者。但是,如果沒有適當的訓練,計算機將會看到條紋,並假設它們是類似的同類。人類知道,斑馬和老虎被分為一類為不合邏輯,但是計算機需要提供整體投入才能清楚地解讀這個差異。

儘管建立乙個具有明確資料集的綜合資料庫似乎是合乎邏輯的,但實際上大多數情況都有一些歧義。當演算法涵蓋盡可能多的輸入時,人工智慧驅動的機器具有精度的能力,但這不是乙個解決方案。更多的投入也將暴露出與人類相同的偏見,所以機器如何破譯輸入和特徵是乙個重要的因素。隨著影象識別技術的不斷完善,開發人員需要意識到他們在解決方案中使用的影象以及對技術的影響。

反思 「以愛殺人 思想偏見」中的思想偏見

反思 以愛殺人 思想偏見 一文中的思想偏見 科學思維唐曾磊 在寫作 以愛殺人 思想偏見 我是分隔號。花雨說 唐老師,被文中的兒子感動得一塌糊塗,你的文章我轉走了,謝謝!還有一位小蝌蚪說 好讓我感動.我想.在我生氣時,我孩子還找我講話,逗我開心,想我和她說話,一定也是像文中的兒子一樣,對親人的一種信任...

歷史的偏見

有一些古怪 我現在都不知道該相信誰?我之前讀過的歷史教科書,還是我現在都的 甲午海戰 就目前而言,我比較傾向於相信我手頭上的 甲午海戰 當時的清流黨雖然不具備一定的組織性,但是這股龐大而無知的勢力的確迷惑住了皇帝。當大東溝海戰失利的訊息傳到皇宮,那些自命不凡的大臣便在皇帝面前,集中火力朝李鴻章及北洋...

《樂觀的偏見》筆記

自證預言 一詞由社會學家羅伯特莫頓在1948年首次提出。按照莫頓的說法,自證預言指一開始對形式的錯誤見解激發新的行為,而這一行為卻讓原本錯誤的見解成真。自證預言具有似是而非的正當性,讓錯誤無法的已更正。而提出預研的人會把事情的發展當做自己從一開始就正確的證據。自證預言是力量無強大的的現象。期待 本身...