Au cœur de l’actualité marquante de l’IA : le partenariat entre la start-up française Mistral AI et Microsoft, un cas d’espionnage industriel chez Google, et une étude révélant des biais de genre dans les modèles de langage IA.
Mistral s’associe a Microsoft
La pépite française Mistral AI a annoncé début février 2024, soit 18 mois après sa création, un inattendu partenariat avec le géant américain Microsoft qui lui versera en contrepartie 15 millions d’euros. 15 M€, c’est donc le prix de la perte d’indépendance d’une des plus belles promesses d’innovation française.
Un choix qui fait polémique, tant beaucoup sur le vieux continent croyaient en l’émergence d’un solide concurrent à ChatGPT et autres IA génératives des GAFAM.
Mistral était-il arrivé à ce point complexe de son évolution où trouver un partenaire solide pour exister et se déployer devenait difficile sinon impossible dans l’hexagone et l’Europe? Si l’opération est d’évidence gagnante pour Microsoft, principal investisseur d’OpenAi qui va pouvoir élargir son offre, elle inquiète côté Mistral dont certains redoutent qu’il perde son âme, à savoir son indépendance et sa culture.
Espionnage chez Google
Le 6 mars dernier, un ingénieur chinois embauché en 2019 par Google, Linwei Ding, a été arrêté à son domicile par le FBI. Il est soupçonné d’avoir, entre mai 2022 et mai 2023, « volé » pas moins de 500 documents confidentiels relatifs aux recherches de Google sur l’IA. En juin 2022 il avait été approché par une Start-up chinoise qui lui a proposé un poste de chef informatique en échange de quelques petites infos sur l’IA…
L’ingénieur chinois trop gourmand ou trop patriote est visé par 4 chefs d’inculpation pour chacun desquels il risque 10 ans de prison et 250 000 $ d’amende. On ne rigole pas aux US avec l’espionnage industriel !
L’I.A. soupçonnée d’être sexiste
L’Unesco, l’organisation des Nations unies pour l’éducation, la science et la culture, vient d’alerter dans un communiqué sur des biais de genre constatés dans la plupart des grands modèles de langage utilisés par l’intelligence artificielle générative, notamment chez ChatGPT d’OpenAI et LLaMa de Méta.
Titrée « Bias Against Women and Girls in large Language Models”, cette étude, dévoilée à la veille du 8 mars, Journée internationale du droit des femmes, met en avance la reproduction dans ces langages des clichés humains. Selon l’Unesco, « Ces modèles de langages ont une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes. Les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes. Elles sont fréquemment associées aux mots « maison », « famille » et « enfants », quand pour les hommes les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés.
D’où un appel de l’Organisation à mieux respecter sa Recommandation sur l’éthique de l’IA, premier et unique cadre normatif mondial dans ce domaine publié en novembre 2021.