Lower Palaeolithic Bifacial Hand Axe from Kelstern by North Lincolnshire Museum, Martin Foreman
— Cropped and modified by us. Original licensed under CC BY-SA 2.0

Démarche / mission

Nous veillons à limiter l’intensité des biais logés dans les modèles pré-entraînés, ces modèles ayant tendance à amplifier les biais des corpus sur lesquels ils s’entraînent.

Notre premier algorithme réduit l’intensité de biais liés au genre. C’est ainsi la première solution compatible avec les principaux modèles de langue pré-entrainés sous forme de module complémentaire en surcouche qui permet de réformer inférences et énoncés pour limiter le sexisme ordinaire qu’ils contiennent. Par sexisme « ordinaire » nous entendons le sexisme qui ne se veut pas consciemment hostile, mais qui se loge au cœur des représentations/discours et donc discrimine en profondeur. Prochainement nos modèles débiaiseront aussi racisme, xénophobie, homophobie, antisémitisme et l’islamopobie ou toute minorité (porteurs de handicaps, intouchables type Harijans, Mikaihō-buraku, nomades ex. Roms etc…) dans de nombreuses langues.

Nous sommes convaincus que les déclarations d’intention ne suffisent pas à garantir un impact neutre des machines du point de vue des discriminations. C’est pourquoi nous avons développé ces solutions techniques, non-invasives et facilement implémentables dans vos modèles existants !

Solutions

Des modèles

qui visent à limiter l’intensité biais ou plusieurs biais dans un signal donné. Notre premier modèle est issu d’une technique d’apprentissage machine non-supervisé et réduit l’intensité de biais liés au genre. Il est particulièrement efficace sur le biais du sexisme ordinaire, c’est à dire le sexisme qui ne veut pas consciemment hostile, mais qui se loge cœur des représentations/discours et donc discrimine en profondeur.

Des corpus d’apprentissage

crées en langue par des experts en sciences humaines (linguistes, sociologues, philologues) puis augmentés par un de nos modèles pour constituer un volume suffisant pour l’apprentissage. À termes, nous souhaitons développer des jeux de données sur d’autres signaux comme l’image.

Des diagnostics d’éco-conception

Nos diagnostics à la fois sur les risques discriminants au sein de modèles projetés et existants ainsi que les stratégies de conception et de gestion, mitigation nous permettent de certifier le meilleur effort que vous avez consacré lors de leur développement. Véritable assurance quant à vos engagements ESG/ISR, ces garanties sont opposables à vos collaborateurs et partenaires et votre meilleure défense contre d’éventuelles controverses.

Cas d’application

Implémenter notre algorithme pour limiter l’intensité des biais que pourrait produire votre modèle (tri de CV), prédiction, orientation (métier, annonces, formation) attribution crédit ou mutuelle, agents conversationnels, traduction automatique).

En première approche commerciale, nous avons ciblé des applications en traitement et compréhension profonde du langage naturel – Natural Language Processing (NLP), Natural Language Understanding (NLU) – premier modèle mais notre technologie est universelle et s’applique à tout signal (image, son…), y compris en mode mutli-modal.

Conviction

Il faut ouvrir la data science aux sciences humaines.

D’ou une équipe multidisciplinaire, fondée par une Anthropologue et un Data Scientist.

Nous constituons un corpus de référence à partir duquel nous forgeons le creuset de notre algèbre sémantique à partir de milliers d’archétypes de très haute qualité créés par nos experts en sciences humaines (linguistes, sociologues, anthropologues) et augmenté par symétrie de genre et projection de cohérence .

En coulant les flux paramétriques du modèle d’origine dans notre réfractaire, il peut corriger en temps réel et de manière non-invasive l’inférence/l’énoncé final devenu alors considérablement moins sexiste sans le surcoût d’un ré-entrainement.

Nous avons développé une métrologie qui permet de rectifier des inférences biaisées en transparence afin que vos modèles soient emprunts de valeurs et de règles choisies et non subies.

En permettant la production d’inférences hautement qualitatives et structurantes, nous permettons à la machine de progresser de manière auditable et responsable.

Soutiens

Unbias dans la presse

L’usine Nouvelle
2021-03-07
Lire l’article

[L’instant tech] Une start-up française lance un outil d’IA pour corriger les biais sexistes des algorithmes

L’entrepreneure et anthropologue Daphné Marnat lance, lundi 8 mars, la start-up Unbias, qui propose une solution d’IA pour supprimer les biais sexistes dans les algorithmes de traitement du langage. Un outil susceptible d’intéresser toutes les entreprises utilisant des chatbots et logiciels de langage automatique.
Tribune Côte d’Azur
2021-03-16
Lire l’article

Le sexisme ordinaire taclé par l’algorithme ?

Pour la Journée mondiale de la startup, le 11 mars, visite parlementaire au Business Pôle pour Eric Pauget, où le député avait rendez-vous avec Daphné Marnat et sa techno anti-macho.
Figaro Madame
2021-06-18
Lire l’article

Palmarès Digital Académie 2021 - L’IA contre le sexisme

Daphné Marnat, cofondatrice d’Unbias. Les chatbots et les traducteurs automatiques sont-ils sexistes ? Plus qu’on pourrait le croire, affirme cette brillante anthropologue, qui a lancé en mars une solution d’IA (intelligence artificielle) permettant de supprimer les biais discriminants dans les algorithmes de traitement du langage.
Nice Matin
2021-03-08
Lire l’article

Comment la startup de Sophia Unbias peut-elle lutter contre le sexisme

En cette journée des droits de la femme, découvrez ce logiciel développé à Sophia qui veut donner naissance à une intelligence artificielle éthique en luttant contre les préjugés sexistes.
We Demain
2021-06-18
Lire l’article

Les algorithmes sont-il sexistes ?

Associée à un data scientist, Daphné Marnat lance ce 8 mars la start-up Unbias, qui propose un outil pour corriger les biais sexistes des algorithmes. Il s’agit d’une intelligence artificielle capable de détecter ces biais sexistes et de les remplacer par des mots ou des tournures de phrase moins discriminants.
Webtime Medias
2021-04-09
Lire l’article

Unbias à Sophia : l’IA pour contrer le sexisme ordinaire des machines

L’Intelligence Artificielle peut-elle apporter une solution au sexisme de la vie quotidienne que reproduisent les machines (traducteurs automatiques ou chatbot)? Oui répond Unbias. Fondée par une anthropologue et un spécialiste de l’IA, la startup sophipolitaine propose des outils technologiques permettant aux data-scientists de développer une véritable IA éthique.
Cote Magazine
2021-06-07
Lire l’article

Daphné Marnat - Lutter contre les a priori sexistes de l’IA

A l’heure où les entreprises s’équipent de plus en plus de chat-bots pour gérer leurs relations client, Daphné souhaite lutter contre les discriminations sexistes ou raciales exprimées par certains algorithmes, sachant qu’ils ne font que reproduire ce qu’ils ont appris de l’humain.
La Tribune PACA
2021-03-02
Lire l’article

Daphné Marnat, quand les sciences sociales rencontrent la technologie

Après une formation en anthropologie, Daphné Marnat choisit de mettre cette science au profit des entreprises et crée Twisting, un cabinet d’aide à l’innovation. En 2020, elle se lance un nouveau défi : celui d’une Intelligence artificielle plus éthique. C’est ainsi que naît Unbias, startup installée à Sophia-Antipolis, à l’origine d’un modèle d’apprentissage capable de corriger les biais sexistes dans des textes et les chat-bots.

Nous avons créé le premier modèle qui débiaise le sexisme ordinaire en langue française.


Découvrir notre modéle