Nous avons créé les premiers modèles non-invasifs qui rectifient en post-traitement les modèles de langue pré-entraînés afin de prévenir inférences et énoncés sexistes.

Et très bientôt il traitera les autres formes de discrimination et préjugés sociaux comme le racisme, l’homophobie, la xénophobie, l’antisémitisme, l’islamophobie dans de nombreuses langues.

En savoir plus

Conçus par des experts en mégadonnées et sciences humaines.

Notre objectif est de traiter la question des biais logés au creux des signaux.
Nous développons nos solutions dans le respect des utilisateurs et de leurs données, éco-conçues, nos machines sont construites sur des lois que nous rendons transparentes.

Découvrir notre modèle

Unbias a pour mission d’outiller
les concepteurs d’IA éthique.

C’est pourquoi nous intégrons des sciences humaines au cœur de nos conceptions de modèles et de corpus pour assurer une réflexivité nécessaire à l’identification et au traitement des biais.

En savoir plus

Soutiens

Unbias dans la presse

Plus de Presse

Vous souhaitez concevoir, utiliser des modèles non discriminant ?


Demander une démo