... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
194473 مقال 299 مصدر نشط 38 قناة مباشرة 8269 خبر اليوم
آخر تحديث: منذ ثانية

Wenn Technik diskriminiert: Von der Künstlichen Intelligenz nicht als Mensch erkannt

تكنولوجيا
FAZ
2026/04/16 - 12:12 501 مشاهدة
Wenn Technik diskriminiert : Von der Künstlichen Intelligenz nicht als Mensch erkanntVon Vanessa Fatho16.04.2026, 14:12Lesezeit: 3 Min.Bildbeschreibung ausklappenÜberlistet mit weißer Maske die KI: die Informatikerin Joy BuolamwiniPicture Alliance / APKI-Systeme seien besonders objektiv, glauben viele. Doch eine Gesprächsrunde in Frankfurt zeigt: Künstliche Intelligenz diskriminiert oft. Vor allem schwarze Frauen sind betroffen.Zusammenfassung Anhören Merken TeilenVerschenkenDrucken Zur App Als Joy Buolamwini eine weiße Maske aufsetzt, wird sie von der Künstlichen Intelligenz als Person erkannt. Doch ohne die Maske erkennt das KI-System sie, eine schwarze Frau, nicht. Die Informatikerin forscht am Massachusetts Institute of Technology in Boston zu Diskriminierung durch KI. Sie ist Protagonistin des Films „Coded Bias“ von Regisseurin Shalini Kantayya, der an diesem Abend im Naxos-Kino in Frankfurt gezeigt wird. Zum Filmabend mit anschließender Podiumsdiskussion hat das Frauenreferat der Stadt eingeladen. Die Veranstaltung ist Teil des Gleichstellungsaktionsplans Feminist Fair Future.Der Andrang ist groß, mehr als 120 Gäste drängen sich im Foyer. Innerhalb von drei Tagen seien die Karten für die unentgeltliche Veranstaltung vergeben gewesen, sagt Organisatorin Saba Afeworki vom Frankfurter Frauenreferat. Über das Interesse freue man sich sehr, schließlich sei das Thema KI angesichts der Deepfake-Vorwürfe der Moderatorin Collien Fernandes gegen ihren früheren Ehemann, den Schauspieler Christian Ulmen, aktueller denn je.Der Film „Coded Bias“ zeigt eines der Kernprobleme von Künstlicher Intelligenz. Die Systeme lernen auf Basis von menschlich generierten Datensätzen. Doch Menschen haben „Unconscious Biases“, also unbewusste, oft stereotype Denkmuster, die in die Technologien einfließen. Die Folge: Die Datensätze enthalten Verzerrungen, welche die Entscheidungsfindung der Systeme beeinflussen. So werden schwarze Menschen von einer KI oft schlechter erkannt als weiße Mensc...
مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤