Google restreint l’accès public à Gemma après qu’un modèle d’IA a généré de fausses allégations au Sénat américain
Quand un géant comme Google serre la vis sur son IA, c’est que le sujet dépasse la simple erreur technique. Ici, la frontière entre innovation et risque devient concrète.
En bref
- ⚙️
Accès restreint : Google limite désormais l’accès public à Gemma, réservé aux développeurs via API pour éviter toute utilisation non maîtrisée.
- 🔍
Attention aux hallucinations : Même chez Google, un modèle IA peut inventer des infos, d’où la nécessité de bien cadrer les usages pour éviter les erreurs ou polémiques.
- 💼
Usage pro uniquement : Gemma reste un outil d’expérimentation pour pros, pas un chatbot destiné à la gestion de tâches ou la production de contenus grand public.
Tu pilotes, tu veux fiabiliser. Quand un outil IA se plante devant le Sénat américain, ça t’oblige à regarder de plus près : Google vient de suspendre l’accès public à Gemma, son système d’intelligence artificielle, suite à la remontée de fausses informations lors d’une audition officielle aux États-Unis.
Un modèle ouvert désormais restreint
Google a récemment décidé de fermer l’accès public à Gemma, son modèle d’intelligence artificielle ouvert, disponible jusqu’alors sur la plateforme AI Studio. Cette décision fait suite à plusieurs allégations de génération de fausses informations, qui ont suscité des critiques, notamment dans la sphère politique américaine.
Selon un communiqué officiel, Gemma n’a jamais été conçu pour un usage grand public. Google précise qu’il s’agit d’un outil destiné aux développeurs et chercheurs, dans le cadre de travaux expérimentaux et techniques.
Un outil conçu pour les développeurs et chercheurs
L’entreprise a tenu à clarifier les différences entre ses produits d’IA : « Le modèle Gemma est une série de modèles ouverts spécialement conçus pour la communauté des développeurs et des chercheurs. Ce modèle n’est pas destiné à une assistance factuelle ou à être utilisé par les consommateurs », a rappelé Google.
Jusqu’à récemment, Gemma pouvait être testé via une API ou via AI Studio, un outil destiné aux développeurs. Toutefois, certains utilisateurs non qualifiés ont tenté de l’utiliser pour poser des questions factuelles, entraînant des résultats problématiques et de la confusion.
Tu scroll des articles IA pendant que tes concurrents automatisent.
Rejoins des indépendants qui partagent leurs automatisations concrètes et reprennent 10-15h/semaine. Sans bullshit théorique.
✅ Hier, Nicolas a automatisé les pointages de ses factures en 20 min grâce à un template partagé..
Des accusations politiques déclenchent la polémique
La polémique s’est intensifiée lorsqu’une sénatrice américaine, Marsha Blackburn, a accusé Gemma d’avoir produit des calomnies à son encontre.
Selon elle, le modèle aurait généré une histoire inventée la liant à une affaire criminelle inexistante, un incident évoqué lors d’une session du Comité commercial du Sénat américain.
Face à cette controverse, la sénatrice a adressé une lettre officielle à Sundar Pichai, PDG de Google, exigeant des explications. Cette affaire a rapidement pris de l’ampleur, relançant le débat sur la responsabilité des grandes entreprises technologiques face aux erreurs générées par leurs modèles d’IA.
Google reconnaît le problème des “hallucinations”
En réponse, Google a admis que ce type de phénomène relève d’un problème bien connu dans le domaine de l’intelligence artificielle, celui des « hallucinations ».
Ces dernières se produisent lorsque le modèle invente des faits ou des événements sans fondement réel. L’entreprise insiste toutefois sur son engagement à minimiser ces dérives, tout en poursuivant ses efforts pour réduire les biais politiques et les erreurs factuelles dans l’ensemble de ses modèles.
« Nous restons engagés à minimiser les hallucinations et continuerons à améliorer tous nos modèles », a précisé le communiqué.
Un accès désormais limité pour éviter les abus
Afin de prévenir les abus et la confusion du public, Google a décidé de restreindre l’accès à Gemma.
Le modèle reste accessible uniquement via des API, réservées aux développeurs qui attestent de leur statut.
En revanche, l’accès via AI Studio, qui avait permis à tout internaute d’interagir avec Gemma, a été désactivé.
Cette mesure vise à mieux encadrer l’usage de la technologie et à rappeler que Gemma n’est pas un outil conversationnel pour le grand public, mais un modèle de recherche conçu pour l’expérimentation et le développement.
Rédactrice web pour Kavyro, je vous aide à décrypter l’actualité IA et automatisation, simplement et sans jargon. Pour me contacter : partenariat@kavyro.com
