Modèles et corpus
d’apprentissage machine
éthiques

Nous avons créé le premier modèle qui débiaise le sexisme ordinaire en langue française.
Découvrir notre modèle
Nous avons créé les premiers modèles non-invasifs qui rectifient en post-traitement les modèles de langue pré-entraînés afin de prévenir inférences et énoncés sexistes.
Et très bientôt il traitera les autres formes de discrimination et préjugés sociaux comme le racisme, l’homophobie, la xénophobie, l’antisémitisme, l’islamophobie dans de nombreuses langues.
Conçus par des experts en mégadonnées et sciences humaines.
Notre objectif est de traiter la question des biais logés au creux des signaux.
Nous développons nos solutions dans le respect des utilisateurs et de leurs données, éco-conçues, nos machines sont construites sur des lois que nous rendons transparentes.
Unbias a pour mission d’outiller
les concepteurs d’IA éthique.
C’est pourquoi nous intégrons des sciences humaines au cœur de nos conceptions de modèles et de corpus pour assurer une réflexivité nécessaire à l’identification et au traitement des biais.
Soutiens
Unbias est incubé au Telecom Paris Eurecom Entrepreneurs Sophia Antipolis






Unbias dans la presse
2021-03-07
Lire l’article
[L’instant tech] Une start-up française lance un outil d’IA pour corriger les biais sexistes des algorithmes
L’entrepreneure et anthropologue Daphné Marnat lance, lundi 8 mars, la start-up Unbias, qui propose une solution d’IA pour supprimer les biais sexistes dans les algorithmes de traitement du langage. Un outil susceptible d’intéresser toutes les entreprises utilisant des chatbots et logiciels de langage automatique.
2021-03-16
Lire l’article
Le sexisme ordinaire taclé par l'algorithme ?
Pour la Journée mondiale de la startup, le 11 mars, visite parlementaire au Business Pôle pour Eric Pauget, où le député avait rendez-vous avec Daphné Marnat et sa techno anti-macho.
2021-06-18
Lire l’article