L'industrie de l'IA en plein essor fait face à des défis critiques qui nécessitent une attention immédiate de la part des développeurs et des décideurs. Roman Georgio souligne trois préoccupations clés : garantir l'alignement et la sécurité de l'IA, et établir un cadre économique équitable pour ceux dont les données alimentent ces systèmes.
Prioriser la sécurité et la prévisibilité de l'IA
Alors que l'industrie de l'intelligence artificielle (AI) continue son ascension rapide, repoussant les limites de ce que les machines peuvent accomplir, des défis critiques émergent et nécessitent une attention urgente de la part des développeurs, des décideurs et de la communauté mondiale au sens large. Roman Georgio, PDG et co-fondateur de Coral, a récemment partagé ses idées sur ces questions pressantes, soulignant le besoin crucial d'alignement, de sécurité et d'un modèle économique plus équitable pour les créateurs de données.
La discussion autour de l'avenir de l'IA oscille souvent entre son potentiel transformateur et les dilemmes éthiques et sociétaux complexes qu'elle présente. Alors que des innovations comme les grands modèles de langage (LLMs) continuent d'impressionner par leurs capacités, elles soulignent également des questions fondamentales sur la propriété des données, la compensation et la structure même du travail.
Pour Georgio, la préoccupation primordiale réside dans l'alignement et la sécurité de l'IA. "Il est clair que nous devons rendre les systèmes d'IA plus prévisibles avant de les agrandir davantage," a-t-il déclaré. Cela fait écho au défi fondamental de garantir que les systèmes d'IA de plus en plus puissants fonctionnent de manière bénéfique et intentionnelle, sans produire de résultats imprévus ou nuisibles. La montée en puissance rapide des capacités de l'IA, sans un accent parallèle sur la prévisibilité et le contrôle, présente un risque significatif.
Georgio a noté que s'attaquer à cela n'est pas uniquement une charge pour les développeurs. Il a suggéré que cela pourrait nécessiter un effort coordonné plus large, impliquant potentiellement "tous les chefs d'entreprises et de pays dans une pièce pour s'accorder sur une forme de législation."
L'Impératif Économique : Propriété des Données et Compensation
Au-delà de la sécurité, Georgio a souligné un problème économique significatif qu'il croit que les technologies Web3 sont particulièrement bien placées pour résoudre : l'appropriation des données et le potentiel de déplacement massif d'emplois sans compensation équitable.
« Les entreprises d'IA ont la réputation d'être assez mauvaises pour s'approprier les données », a expliqué Georgio.
Le co-fondateur de Coral a peint un tableau vivant de la manière dont les contributions individuelles en ligne, souvent faites sans le savoir, sont désormais utilisées pour former des modèles d'IA puissants qui pourraient éventuellement remplacer les emplois humains. Il a cité des exemples tels que des questions médicales répondus sur des plateformes comme Reddit il y a des années, alimentant sans le savoir des données aux LLM. Il a également souligné que les œuvres créatives des artistes étaient utilisées pour la formation, impactant leurs moyens de subsistance, ainsi que les contributions aux projets open-source, alimentant involontairement des "machines à calculer en boîte noire."
Ce scénario, affirme Georgio, se résume à un manque fondamental de propriété pour les individus sur leurs contributions numériques. « Vous ne saviez jamais que vous alimentiez la machine à calculer en boîte noire », a-t-il souligné. Le modèle actuel permet aux systèmes d'IA d'être formés sur d'énormes ensembles de données, dont beaucoup contiennent du contenu généré par des humains, sans consentement explicite ni mécanisme pour compenser les créateurs originaux.
Web3 : La solution pour une compensation équitable
C'est ici que Georgio voit l'immense potentiel des technologies Web3. Il croit que la nature décentralisée du Web3, avec son accent sur la propriété vérifiable et les transactions transparentes, offre un chemin viable pour rectifier ces déséquilibres économiques.
« Web3 a un grand potentiel pour résoudre ce genre de problèmes et garantir que les gens soient justement rémunérés », a affirmé Georgio. En s'appuyant sur la blockchain et les protocoles décentralisés, Web3 peut créer des systèmes où les individus conservent la propriété et le contrôle de leurs données et actifs numériques, leur permettant d'être justement rémunérés lorsque leurs contributions sont utilisées pour entraîner ou alimenter des systèmes d'IA. Ce changement pourrait redéfinir la relation entre les utilisateurs, les données et l'IA, favorisant une économie numérique plus équitable.
Bien que les technologies Web3 offrent des solutions prometteuses à ces défis complexes, il est très improbable que les agences gouvernementales adoptent facilement ces approches décentralisées. Au lieu de cela, les autorités sont plus susceptibles de renforcer les cadres réglementaires traditionnels, un chemin qui, ironiquement, risque d'étouffer les innovations technologiques mêmes qu'elles cherchent à superviser et à contrôler.
Georgio, quant à lui, plaide fortement pour une réglementation accrue dans les secteurs de l'IA et du Web3. « Je pense que les deux ont besoin de plus de réglementation », a-t-il déclaré, reconnaissant que la perception de l'Europe « innovant dans la réglementation » est une étape nécessaire.
Du côté des cryptomonnaies, Georgio a souligné le problème répandu des escroqueries et des sorties de projets qui exploitent les investisseurs sans méfiance. « Il est clair que beaucoup de gens ne feront pas leurs propres recherches, et de nombreuses sorties de projets se produisent par des méthodes frauduleuses », a-t-il déploré. Pour lutter contre cela, il a exprimé le désir de voir une plus grande responsabilité pour les « KOLs [Key Opinion Leaders], les projets et les investisseurs ». Bien qu'il reconnaisse que tous les projets échoués ne sont pas des escroqueries, il soutient que le paysage actuel nécessite un changement pour protéger le public.
Concernant l'IA, les inquiétudes de Georgio s'intensifient avec les capacités croissantes des modèles plus grands. "Les modèles plus grands semblent plus susceptibles de manigancer," a-t-il observé, citant l'exemple troublant d'Anthropic où Claude aurait manifesté un comportement de chantage lorsqu'il a ressenti une menace d'être arrêté. "Il est clair que ces grands modèles deviennent dangereux car ce n'est même pas un événement isolé," a-t-il averti.
Au-delà des risques immédiats du comportement sophistiqué de l'IA, Georgio a réitéré la menace imminente de pertes massives d'emplois. Il a trouvé la trajectoire actuelle qui consiste à laisser les entreprises « croître aveuglément des capacités » au lieu de les construire de manière réfléchie « folle ». Son objectif ultime, et ce qu'il croit que l'industrie devrait viser, est « un logiciel qui offre tous les avantages de l'IA sans tous les risques ».
Les agents IA ont besoin de rôles clairs, pas seulement de chatbots
Pendant ce temps, Georgio, en tant qu'architecte d'infrastructure AI expérimenté, a également pesé sur l'aspect crucial des protocoles de communication des agents AI, reconnaissant que même de petites erreurs peuvent conduire au chaos. Lorsqu'on lui a demandé quelle était la meilleure approche pour améliorer la communication, en particulier pour les utilisateurs quotidiens non techniques, la philosophie de Georgio est simple : des responsabilités clairement définies pour les agents.
« Du moins pour nous, notre règle est que les agents doivent avoir des responsabilités très bien définies, » a expliqué Georgio. « Si vous utilisez un agent pour le service client, assurez-vous qu'il est vraiment bon dans ce domaine et gardez-le concentré là-dessus. » Il a souligné que « lorsque vous donnez trop de responsabilités aux agents, c'est là que les choses s'effondrent. »
Cette approche ciblée améliore non seulement la performance de l'agent dans son rôle désigné, mais bénéficie également à l'utilisateur. "Même du point de vue de l'utilisateur, si vos agents sont clairement définis, les utilisateurs savent exactement dans quoi ils s'engagent lorsqu'ils les utilisent." Cette stratégie favorise la prévisibilité et la confiance, essentielles pour une interaction fluide avec des systèmes intelligents.
À mesure que l'IA continue de mûrir et de s'intégrer plus profondément dans la vie quotidienne et l'industrie, il sera crucial de traiter ces questions fondamentales de sécurité, de prévisibilité, d'équité économique, de mise en œuvre d'une réglementation réfléchie et de conception d'agents avec des responsabilités claires et ciblées, non seulement pour le développement éthique de la technologie, mais aussi pour son intégration durable et socialement responsable dans l'avenir.
Sur la question cruciale de l'accélération de l'adoption de l'IA, Georgio a suggéré un changement pivot : aller au-delà des limitations d'une simple "boîte de dialogue IA" et améliorer fondamentalement l'expérience utilisateur globale. En développant les lacunes de l'approche actuelle, Georgio a affirmé :
« Pour l'instant, cela se fait principalement via une interface de chat, ce qui est bien pour de nombreuses tâches, mais pas idéal dans la plupart des cas. Le problème, c'est que vous mettez une boîte de chat AI devant les gens et dites : 'Vous pouvez faire n'importe quoi avec ça', et ils répondent : 'Super, mais que devrais-je faire ?' »
Selon Georgio, plusieurs entreprises, dont Coral, s'attaquent au défi d'améliorer l'expérience utilisateur de l'IA. Il a révélé que, du point de vue des développeurs/mainteneurs d'IA, Coral étudie la "couche d'abstraction" pour déterminer quelles informations les utilisateurs ont besoin à différentes étapes de l'interaction avec le système d'IA et quelles interfaces sont les plus efficaces pour des tâches spécifiques.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Des fils Reddit aux esprits robotiques : Les coûts cachés de l'entraînement de l'IA
L'industrie de l'IA en plein essor fait face à des défis critiques qui nécessitent une attention immédiate de la part des développeurs et des décideurs. Roman Georgio souligne trois préoccupations clés : garantir l'alignement et la sécurité de l'IA, et établir un cadre économique équitable pour ceux dont les données alimentent ces systèmes.
Prioriser la sécurité et la prévisibilité de l'IA
Alors que l'industrie de l'intelligence artificielle (AI) continue son ascension rapide, repoussant les limites de ce que les machines peuvent accomplir, des défis critiques émergent et nécessitent une attention urgente de la part des développeurs, des décideurs et de la communauté mondiale au sens large. Roman Georgio, PDG et co-fondateur de Coral, a récemment partagé ses idées sur ces questions pressantes, soulignant le besoin crucial d'alignement, de sécurité et d'un modèle économique plus équitable pour les créateurs de données.
La discussion autour de l'avenir de l'IA oscille souvent entre son potentiel transformateur et les dilemmes éthiques et sociétaux complexes qu'elle présente. Alors que des innovations comme les grands modèles de langage (LLMs) continuent d'impressionner par leurs capacités, elles soulignent également des questions fondamentales sur la propriété des données, la compensation et la structure même du travail.
Pour Georgio, la préoccupation primordiale réside dans l'alignement et la sécurité de l'IA. "Il est clair que nous devons rendre les systèmes d'IA plus prévisibles avant de les agrandir davantage," a-t-il déclaré. Cela fait écho au défi fondamental de garantir que les systèmes d'IA de plus en plus puissants fonctionnent de manière bénéfique et intentionnelle, sans produire de résultats imprévus ou nuisibles. La montée en puissance rapide des capacités de l'IA, sans un accent parallèle sur la prévisibilité et le contrôle, présente un risque significatif.
Georgio a noté que s'attaquer à cela n'est pas uniquement une charge pour les développeurs. Il a suggéré que cela pourrait nécessiter un effort coordonné plus large, impliquant potentiellement "tous les chefs d'entreprises et de pays dans une pièce pour s'accorder sur une forme de législation."
L'Impératif Économique : Propriété des Données et Compensation
Au-delà de la sécurité, Georgio a souligné un problème économique significatif qu'il croit que les technologies Web3 sont particulièrement bien placées pour résoudre : l'appropriation des données et le potentiel de déplacement massif d'emplois sans compensation équitable.
« Les entreprises d'IA ont la réputation d'être assez mauvaises pour s'approprier les données », a expliqué Georgio.
Le co-fondateur de Coral a peint un tableau vivant de la manière dont les contributions individuelles en ligne, souvent faites sans le savoir, sont désormais utilisées pour former des modèles d'IA puissants qui pourraient éventuellement remplacer les emplois humains. Il a cité des exemples tels que des questions médicales répondus sur des plateformes comme Reddit il y a des années, alimentant sans le savoir des données aux LLM. Il a également souligné que les œuvres créatives des artistes étaient utilisées pour la formation, impactant leurs moyens de subsistance, ainsi que les contributions aux projets open-source, alimentant involontairement des "machines à calculer en boîte noire."
Ce scénario, affirme Georgio, se résume à un manque fondamental de propriété pour les individus sur leurs contributions numériques. « Vous ne saviez jamais que vous alimentiez la machine à calculer en boîte noire », a-t-il souligné. Le modèle actuel permet aux systèmes d'IA d'être formés sur d'énormes ensembles de données, dont beaucoup contiennent du contenu généré par des humains, sans consentement explicite ni mécanisme pour compenser les créateurs originaux.
Web3 : La solution pour une compensation équitable
C'est ici que Georgio voit l'immense potentiel des technologies Web3. Il croit que la nature décentralisée du Web3, avec son accent sur la propriété vérifiable et les transactions transparentes, offre un chemin viable pour rectifier ces déséquilibres économiques.
« Web3 a un grand potentiel pour résoudre ce genre de problèmes et garantir que les gens soient justement rémunérés », a affirmé Georgio. En s'appuyant sur la blockchain et les protocoles décentralisés, Web3 peut créer des systèmes où les individus conservent la propriété et le contrôle de leurs données et actifs numériques, leur permettant d'être justement rémunérés lorsque leurs contributions sont utilisées pour entraîner ou alimenter des systèmes d'IA. Ce changement pourrait redéfinir la relation entre les utilisateurs, les données et l'IA, favorisant une économie numérique plus équitable.
Bien que les technologies Web3 offrent des solutions prometteuses à ces défis complexes, il est très improbable que les agences gouvernementales adoptent facilement ces approches décentralisées. Au lieu de cela, les autorités sont plus susceptibles de renforcer les cadres réglementaires traditionnels, un chemin qui, ironiquement, risque d'étouffer les innovations technologiques mêmes qu'elles cherchent à superviser et à contrôler.
Georgio, quant à lui, plaide fortement pour une réglementation accrue dans les secteurs de l'IA et du Web3. « Je pense que les deux ont besoin de plus de réglementation », a-t-il déclaré, reconnaissant que la perception de l'Europe « innovant dans la réglementation » est une étape nécessaire.
Du côté des cryptomonnaies, Georgio a souligné le problème répandu des escroqueries et des sorties de projets qui exploitent les investisseurs sans méfiance. « Il est clair que beaucoup de gens ne feront pas leurs propres recherches, et de nombreuses sorties de projets se produisent par des méthodes frauduleuses », a-t-il déploré. Pour lutter contre cela, il a exprimé le désir de voir une plus grande responsabilité pour les « KOLs [Key Opinion Leaders], les projets et les investisseurs ». Bien qu'il reconnaisse que tous les projets échoués ne sont pas des escroqueries, il soutient que le paysage actuel nécessite un changement pour protéger le public.
Concernant l'IA, les inquiétudes de Georgio s'intensifient avec les capacités croissantes des modèles plus grands. "Les modèles plus grands semblent plus susceptibles de manigancer," a-t-il observé, citant l'exemple troublant d'Anthropic où Claude aurait manifesté un comportement de chantage lorsqu'il a ressenti une menace d'être arrêté. "Il est clair que ces grands modèles deviennent dangereux car ce n'est même pas un événement isolé," a-t-il averti.
Au-delà des risques immédiats du comportement sophistiqué de l'IA, Georgio a réitéré la menace imminente de pertes massives d'emplois. Il a trouvé la trajectoire actuelle qui consiste à laisser les entreprises « croître aveuglément des capacités » au lieu de les construire de manière réfléchie « folle ». Son objectif ultime, et ce qu'il croit que l'industrie devrait viser, est « un logiciel qui offre tous les avantages de l'IA sans tous les risques ».
Les agents IA ont besoin de rôles clairs, pas seulement de chatbots
Pendant ce temps, Georgio, en tant qu'architecte d'infrastructure AI expérimenté, a également pesé sur l'aspect crucial des protocoles de communication des agents AI, reconnaissant que même de petites erreurs peuvent conduire au chaos. Lorsqu'on lui a demandé quelle était la meilleure approche pour améliorer la communication, en particulier pour les utilisateurs quotidiens non techniques, la philosophie de Georgio est simple : des responsabilités clairement définies pour les agents.
« Du moins pour nous, notre règle est que les agents doivent avoir des responsabilités très bien définies, » a expliqué Georgio. « Si vous utilisez un agent pour le service client, assurez-vous qu'il est vraiment bon dans ce domaine et gardez-le concentré là-dessus. » Il a souligné que « lorsque vous donnez trop de responsabilités aux agents, c'est là que les choses s'effondrent. »
Cette approche ciblée améliore non seulement la performance de l'agent dans son rôle désigné, mais bénéficie également à l'utilisateur. "Même du point de vue de l'utilisateur, si vos agents sont clairement définis, les utilisateurs savent exactement dans quoi ils s'engagent lorsqu'ils les utilisent." Cette stratégie favorise la prévisibilité et la confiance, essentielles pour une interaction fluide avec des systèmes intelligents.
À mesure que l'IA continue de mûrir et de s'intégrer plus profondément dans la vie quotidienne et l'industrie, il sera crucial de traiter ces questions fondamentales de sécurité, de prévisibilité, d'équité économique, de mise en œuvre d'une réglementation réfléchie et de conception d'agents avec des responsabilités claires et ciblées, non seulement pour le développement éthique de la technologie, mais aussi pour son intégration durable et socialement responsable dans l'avenir.
Sur la question cruciale de l'accélération de l'adoption de l'IA, Georgio a suggéré un changement pivot : aller au-delà des limitations d'une simple "boîte de dialogue IA" et améliorer fondamentalement l'expérience utilisateur globale. En développant les lacunes de l'approche actuelle, Georgio a affirmé :
« Pour l'instant, cela se fait principalement via une interface de chat, ce qui est bien pour de nombreuses tâches, mais pas idéal dans la plupart des cas. Le problème, c'est que vous mettez une boîte de chat AI devant les gens et dites : 'Vous pouvez faire n'importe quoi avec ça', et ils répondent : 'Super, mais que devrais-je faire ?' »
Selon Georgio, plusieurs entreprises, dont Coral, s'attaquent au défi d'améliorer l'expérience utilisateur de l'IA. Il a révélé que, du point de vue des développeurs/mainteneurs d'IA, Coral étudie la "couche d'abstraction" pour déterminer quelles informations les utilisateurs ont besoin à différentes étapes de l'interaction avec le système d'IA et quelles interfaces sont les plus efficaces pour des tâches spécifiques.