Intelligence artificielle : Meta, IBM et leurs alliés appellent à des modèles en "open source"
Meta, IBM et des dizaines de start-up et de chercheurs ont constitué une alliance le 5 décembre pour défendre une méthode plus ouverte et plus collaborative de développement de l'intelligence artificielle (IA). "Il s'agit d'un moment crucial pour définir l'avenir de l'IA", a déclaré Arvind Krishna, le patron d'IBM, dans le communiqué annonçant la création de l'AI Alliance. Il défendent un système en "open source" (accès libre au code de programmation) soutiennent que le partage de la technologie permet de stimuler l'innovation et garantir qu'aucune organisation ne prenne une avance dangereuse.
Meta a mis ses modèles d'IA à la disposition des chercheurs et des start-up pour qu'ils puissent les modifier et les perfectionner. "Nous pensons qu'il est préférable que l'IA soit développée de manière ouverte : davantage de personnes peuvent accéder aux avantages, créer des produits innovants et travailler sur la sécurité", a déclaré Nick Clegg, responsable des Affaires internationales chez Meta. IBM et Meta sont rejoints par une cinquantaine d'entreprises et d'organisations, dont Intel et la NASA.
"La poursuite de l'innovation ouverte uniformise les règles du jeu et permet à chacun de profiter des avantages de l'IA générative", a déclaré Jennifer Chayes, doyenne du département des sciences informatiques de l'université de Berkeley.
Une vision opposée à OpenAI et Google
Beaucoup d'acteurs et d'observateurs du secteur craignent qu'OpenAI - l'inventeur de ChatGPT, largement financé par Microsoft - et Google ne deviennent les gardiens d'une technologie de plus en plus essentielle. Leur position a été renforcée au début du mois par le conflit au sein du conseil d'administration d'OpenAI, qui a débouché sur un renforcement du rôle de Microsoft.
OpenAI et Google ont mis au point des systèmes fermés pour les modèles de langage. Les deux entreprises de la Silicon Valley mènent la course dans ce domaine depuis la sortie de ChatGPT il y a un an. Elles défendent leurs méthodes pour s'assurer que la technologie est sûre, qu'elle est déployée de manière éthique et responsable - et qu'elle ne tombe pas entre les mains de mauvais acteurs.