Werbebericht - Shaip

Was ist Bias AI und wie kann Bias AI in Conversational AI beseitigt werden?

Vatsal Ghiya, CEO und Mitbegründer von Shaip, verfügt über 20 Jahre Erfahrung mit KI-Software und -Diensten im Gesundheitswesen und ermöglicht die bedarfsgerechte Skalierung von Geschäftsprozessen mit maschinellem Lernen und KI-Initiativen. In diesem Gastbeitrag hat Vatsal Ghiya wichtige Erkenntnisse darüber geteilt, wie Vorurteile in der Conversational AI beseitigt werden können.

Die wichtigsten Erkenntnisse aus dem Artikel sind:

  • Wie die Statistik zeigt, beträgt die Genauigkeitsrate beim Abrufen von Ergebnissen durch die Sprachsuche bei amerikanischen Männern 92 %, aber diese sinkt auf 79 % und 69 % bei weißen amerikanischen Frauen und gemischten amerikanischen Frauen. Dies ist ein klassisches Beispiel für Bias AI.
  • Einige reale Beispiele für die Bias-KI sind Amazon und Facebook, wo Männer bei der Rekrutierung bei Amazon stärker bevorzugt wurden und Facebook den Kunden aufgrund seines Geschlechts, seiner Hautfarbe und seiner Religion anspricht. Diese Voreingenommenheit in der KI wird durch drei Gründe verursacht und diese sind Daten, Menschen und Technologie.
  • Um die Voreingenommenheit von KI aus allen Anwendungen und Systemen zu eliminieren, können Unternehmen Maßnahmen wie die Zertifizierung der Datenquellen und -qualität, die Überwachung des Modells in Echtzeit und die Analyse der Datenvielfalt ergreifen, bevor sie KI in ihren Betrieben einsetzen.

Lesen Sie hier den vollständigen Artikel:

https://www.theadreview.com/meet-vatsal-ghiya/

Social Share

Lassen Sie uns noch heute Ihre Anforderungen an KI-Trainingsdaten besprechen.