Fairness in der Künstlichen Intelligenz

Dieses Modul untersucht Fairness in der Künstlichen Intelligenz (KI), mit einem Schwerpunkt auf der Identifizierung und Minderung von Verzerrungen in KI-Systemen. Es behandelt die Quellen von Verzerrungen, Methoden zur Bewertung und Verbesserung der Fairness sowie die ethischen Implikationen von KI-Entscheidungen für verschiedene Bevölkerungsgruppen, mit dem Ziel, Gleichheit zu fördern und Diskriminierung in KI-Anwendungen zu verhindern.

Portal > Künstliche Intelligenz > Fairness in der Künstlichen Intelligenz

Curriculum Builder

Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. “Maschinelle Voreingenommenheit.” ProPublica, 23. Mai 2016.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Grira, Nizar und M. Crucianu. “Unüberwachtes und halbüberwachtes Clustering: Eine kurze Umfrage”, 2004.

https://www.semanticscholar.org/paper/Unsupervised-and-Semi-supervised-Clustering-%3A-a-%E2%88%97-Grira-Crucianu/acb799150e4cd3a75fe79ca262047612bd8e5194

Olteanu, Alexandra, Carlos Castillo, Fernando Diaz und Emre Kıcıman. “Soziale Daten: Vorurteile, methodische Fallstricke und ethische Grenzen.” Frontiers in Big Data 2 (11. Juli 2019): 13.

https://doi.org/10.3389/fdata.2019.00013

Mehrabi, Ninareh, Fred Morstatter, Nanyun Peng und Aram Galstyan. “Debiasing Community Detection: Die Bedeutung von niedrig verbundenen Knoten.” arXiv, 2019.

https://doi.org/10.48550/ARXIV.1903.08136

Fortunato, Santo und Darko Hric. “Community-Erkennung in Netzwerken: Ein Benutzerhandbuch.” Physikberichte 659 (2016): 1–44.

https://doi.org/10.1016/j.physrep.2016.09.002

Zhao, Jieyu, Tianlu Wang, Mark Yatskar, Vicente Ordonez und Kai-Wei Chang. “Männer kaufen auch gerne ein: Reduzierung der Verstärkung von geschlechtsspezifischen Vorurteilen mithilfe von Einschränkungen auf Korpusebene.” arXiv, 2017.

https://doi.org/10.48550/ARXIV.1707.09457

Mehrabi, Ninareh, Fred Morstatter, Nripsuta Saxena, Kristina Lerman und Aram Galstyan. “Eine Umfrage zu Voreingenommenheit und Fairness im maschinellen Lernen.” ACM Computing Surveys 54, Nr. 6 (13. Juli 2021): 1–35.

https://doi.org/10.1145/3457607

Thank you for signing up to our newsletter!

Thank you! RSVP received for Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. “Maschinelle Voreingenommenheit.” ProPublica, 23. Mai 2016.

Thank you for applying! We will be in touch.

Apply for: Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. “Maschinelle Voreingenommenheit.” ProPublica, 23. Mai 2016.

Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. “Maschinelle Voreingenommenheit.” ProPublica, 23. Mai 2016.

Laden...

Laden…