Comment les préjugés humains peuvent affecter les outils de l'intelligence artificielle → Devis pour Assurance Viet

Combien coûte la confirmation prêt personnel ?
Les générosité d’assurance prêt sont calculées en fonction d’une série de facteurs, de laquelle suivants

Le type de couverture et les caractéristiques que vous choisissez. Qu’il s’agisse de la couverture d’assurance-vie, d’assurance opposé les accidents et la maladie ou du chômage involontaire, chaque fleur et pourquoi pas combinaison d’options entraînera des coûts différents. Les caractéristiques choisies pour tout type de couverture peuvent également influencer le coût.
Le montant et la durée de votre prêt. Le montant et la durée de votre prêt seront utilisés pour calculer la prime.
Police unique et pourquoi pas conjointe. Certains fournisseurs offrir la possibilité de souscrire une police unique ou une police conjointe. La prime peut varier selon le type de police que vous choisissez.
Taille du remboursement. La prime ensemble variera selon le montant de vos remboursements mensuels.
Ton âge. Votre âge à la date d’emblée en vigueur de votre police être pris en considération dans le calcul de votre prime. Vérifiez à votre fournisseur.
C’est une idée de comparer soumissions de plusieurs fournisseurs pour trouver la police commode à vos désirs et à votre budget.

Imaginez un scénario dans lequel vous avez besoin d'un système de navigation automobile intégré pour passer un appel d'urgence, mais ce ne sera pas le cas. Ou arriver plus tôt sur chaque vol international, car les scanners d’aéroport ne reconnaissent jamais votre visage.

Pour de nombreuses personnes – en particulier pour les femmes et les femmes colorées – ces scénarios peuvent être frustrants. En effet, l'intelligence artificielle censée nous faciliter la vie ne contient pas assez de données pour fonctionner pour tout le monde. C'est un gros problème qui peut être résolu.

La dignité personnelle, la sécurité des voyageurs et la recherche d’un emploi ne sont que quelques aspects de la vie qui peuvent être améliorés par des algorithmes – si la technologie apprend à reconnaître et à classifier la gamme complète de voix et de visage. Cependant, le centre d’AI Now de New York, a annoncé en avril que le manque de diversité dans le secteur de l’intelligence artificielle contribuait à créer des outils biaisés qui causent des dommages dans le monde réel. Ces préjugés peuvent saper les avantages offerts par AI dans de nombreux domaines de la vie moderne.

Comment des données biométriques biaisées peuvent-elles être biaisées? De nombreuses études ont montré que les algorithmes de reconnaissance vocale et faciale sont plus précis pour les hommes que pour les femmes. Les programmes de reconnaissance des visages ont également des problèmes d'identification correcte des personnes transgenres et non humaines. Les algorithmes de reconnaissance d'images sont souvent plus précis pour les personnes à la peau plus claire que celles à la peau plus sombre. Ces divergences peuvent causer des problèmes aux utilisateurs, allant de gênants à potentiellement fatals.

Par exemple, des chercheurs du Georgia Institute of Technology ont constaté que la technologie de sécurité utilisée pour conduire une voiture ne reconnaissait pas les piétons à la peau foncée et qu'elle voyait aussi les piétons blancs. Pourquoi? Les auteurs de l’étude disent qu’un ensemble de données didactiques regroupant de nombreuses personnes au teint clair, associé à une insistance insuffisante sur les personnes à la peau foncée, enseigne efficacement aux modèles de détection d’objets afin de mieux reconnaître les piétons blancs. Les auteurs de la voiture doivent corriger cette anomalie pour éviter que leur voiture ne frappe les personnes de couleur parce qu'elles ne les reconnaissent pas comme des piétons et s'arrêtent devant elles.

Dans les aéroports, le département de la Sécurité intérieure teste des biomètres de reconnaissance faciale afin d'assurer la sécurité des voyageurs aériens internationaux. Cependant, ceci peut conduire à des examens plus longs et invasifs de tracts dont le visage n'est pas correctement reconnu par l'intelligence artificielle. Certaines technologies de reconnaissance des visages ont du mal à identifier correctement les personnes et les femmes de couleur, en particulier les femmes à la peau plus foncée.

A l'instar de l'intelligence artificielle biaisée reconnue par les piétons, ces algorithmes de reconnaissance faciale ont été formés à l'aide d'ensembles de données asymétriques entre blanc et masculin. Comme dans le cas de la reconnaissance des piétons, les algorithmes de reconnaissance des visages doivent tirer parti d'ensembles de données contenant le bon mélange de peau et de sexe.

La technologie de reconnaissance vocale facilite l'exécution de nombreuses tâches quotidiennes telles que la dictée, la recherche en ligne et la navigation en conduisant. Cependant, depuis au moins 2002, les chercheurs et les médias ont documenté des cas de reconnaissance vocale bien pires pour les femmes que pour les hommes, car les algorithmes sont formés à la reconnaissance de voix plus basses, généralement masculines. Le problème n'a pas encore été résolu – l'auteur du Guardian a décrit en avril les difficultés récurrentes que sa mère a demandé à Volvo de téléphoner, jusqu'à ce qu'elle ait délibérément baissé le ton pour le faire ressembler à un homme.

Un étudiant au doctorat à l'Université de Washington et Os Keyes, boursier Ada Lovelace, ont exprimé leur préoccupation quant aux systèmes de reconnaissance faciale pouvant nuire à la transe et aux êtres non humains de nombreuses manières. Les systèmes de sécurité qui scannent les visages pour permettre aux résidents d'entrer dans leur complexe résidentiel ou de surveiller les toilettes publiques peuvent mal identifier les personnes qui ne font pas clairement partie d'une catégorie de genre. Selon Keyes, cela pourrait conduire à davantage de réunions avec les forces de l'ordre et augmenter le risque d'arrestation ou de blessure.

Il est tentant de penser que, parce que les algorithmes sont basés sur des données, ils génèrent des résultats impartiaux et justes. Mais les algorithmes apprennent en identifiant des modèles dans des ensembles de données réels, et ces ensembles de données contiennent souvent des modèles de préjugés – inconscients ou autres. Le défi pour les créateurs d’intelligence artificielle consiste à trouver ou à créer des ensembles de données sur l’enseignement qui ne renforcent pas les préjugés, de sorte que la technologie puisse faire progresser la société dans son ensemble.

Résoudre le problème de l'intelligence artificielle L'utilisation de jeux de données plus inclusifs pour l'apprentissage de l'intelligence artificielle peut aider à créer des outils moins biaisés. Atipica, l'une des startups, travaille à la création d'un algorithme de ressources humaines intégré basé sur un vaste ensemble de données qui récupère les données de curriculum vitae et les données gouvernementales afin de refléter avec précision les données démographiques de la main-d'œuvre.

D'autres étapes sont également nécessaires. À l'heure actuelle, le secteur de l'intelligence artificielle comprend très peu de femmes, de personnes colorées et de personnes LGBTQ. La main-d'œuvre plus diversifiée d'Amnesty International apporterait davantage de perspectives et d'expériences de vie aux projets d'Amnesty International. La transparence et les tests de biais dans les systèmes d'intelligence artificielle peuvent identifier les problèmes avant que les produits n'arrivent sur le marché et quand ils sont utilisés.

Le centre AI Now NYU recommande aux experts de divers domaines d'aller au-delà de l'intelligence artificielle et de l'apprentissage des données pour offrir une perspective plus large de l'IA dans des situations réelles. Certains observateurs de l'industrie disent que la réglementation peut faire partie de la solution. À Washington, certains sénateurs ont proposé des dispositions qui imposeraient une "responsabilité algorithmique" aux entreprises qui développent des outils d’intelligence artificielle.

L'intelligence artificielle a le potentiel de rendre nos vies plus sûres et plus faciles si nous formons les systèmes pour qu'ils soient inclusifs et les utilisent judicieusement. En prenant des mesures pour éliminer les préjugés en intelligence artificielle, nous pouvons nous assurer que les progrès de cette technologie feront progresser tout le monde.


Rafael Lourenco

Rafael Lourenco

Rafael Lourenco est vice-président exécutif de ClearSale


Pour obtenir des demandes de réimpression et de licences pour cet article, cliquez ici.


Comment les préjugés humains peuvent affecter les outils de l'intelligence artificielle → Devis pour Assurance Viet
4.9 (98%) 32 votes
 

Laisser un commentaire