Mais derrière ces engagements ambitieux et des discours visionnaires, une question essentielle persiste : l’IA peut-elle réellement être éthique, durable et inclusive ?
Paris et New Delhi en quête d’une stratégie commune pour l’IA
Avec le lancement de DeepSeek, un modèle d’IA à faible coût et à empreinte carbone réduite, la Chine a rebattu les cartes du paysage mondial de l’IA, contestant la suprématie états-unienne. Face à cette évolution, la France et l’Inde ont cherché à imposer une alternative, plaidant pour une IA plus éthique pour faire face au duopole sino-américain.
L’Inde a pu réaffirmer ses ambitions après avoir annoncé, en 2024, son programme IndiaAI de 1,2 milliard de dollars, destiné à en faire un leader mondial du secteur. De son côté, Macron a dévoilé lors du sommet un investissement privé de 112 milliards de dollars (soit 109 milliards d’euros), dont près de 52 milliards provenant des Émirats arabes unis.
L’agenda du sommet mettait en avant la capacité de l’IA à répondre à des défis majeurs tels que les inégalités dans l’éducation, l’accès aux soins et le changement climatique. Les modèles d’IA open source ont été présentés comme un levier de démocratisation, permettant d’éviter sa monopolisation. L’objectif affiché était d’orienter le développement de l’IA vers l’intérêt public, tout en garantissant le respect des droits humains.
Mais si cette coopération indo-française a su traduire une vision commune d’une IA au service d’un développement démocratique et durable, les réalités géopolitiques rendent ces idéaux difficilement atteignables.
Les limites du discours : une IA réellement éthique est-elle possible ?
Malgré l’optimisme affiché au sommet, de nombreux obstacles remettent en question la possibilité d’une IA véritablement éthique.
L’impact environnemental de l’IA reste une préoccupation majeure : par exemple, l’entraînement du modèle GPT-3 d’OpenAI émet plus de 500 tonnes de CO2, soit l’équivalent des émissions à vie de cinq voitures. L’IA étant de plus en plus utilisée, la consommation mondiale d’énergie pourrait doubler, passant de 460 TWh à 1 000 TWh d’ici à 2026, remettant en cause sa possible durabilité vantée au sommet.
Par ailleurs, le manque de transparence des modèles d’IA pose un problème dans des secteurs sensibles comme la santé ou la justice. Fonctionnant souvent comme des « boîtes noires », certains algorithmes amplifient les biais sociaux et les discriminations. Pourtant, leurs propres développeurs peinent à expliquer leurs décisions, ce qui risque d’aggraver les inégalités plutôt que de les corriger.
Au-delà des enjeux éthiques, l’essor de l’IA transforme entièrement le marché du travail. Dans les années à venir, près de la moitié des emplois des économies développées pourraient être automatisés, accentuant les fractures sociales. Paradoxalement, bien que l’IA soit de plus en plus présente dans nos vies, sa compréhension par le public reste limitée, laissant aux gouvernements et aux entreprises une grande liberté dans son déploiement. Cette situation nourrit les inquiétudes concernant la désinformation, la surveillance de masse ou encore la prise de pouvoir des algorithmes.
Un consensus fragile sur la gouvernance de l’IA
À quelques kilomètres du sommet, au Théâtre de la Concorde, un contre-sommet dénonçait l’événement considéré comme déconnecté des préoccupations des citoyens. Militants et organisations de la société civile reprochaient au Sommet pour l’Action sur l’IA de promouvoir la compétition économique avant les implications sociétales. La maire de Paris, Anne Hidalgo, qui avait prévu de participer au contre-sommet, en a été empêchée par des membres de la Résistance Anti-Tech (ATR), un mouvement opposé à l’accélération technologique.
De leur côté, l’ATR dénonce ce qu’ils qualifient de « propagande technocratique », affirmant que les gains d’efficacité à court terme masquent des coûts sociaux systématiquement ignorés. Malgré les ambitions affichées, le débat sur la gouvernance de l’IA reste sans réelles réponses. Les États-Unis et la Chine continuent de favoriser une innovation sans restrictions, tandis que la France et l’Inde ont plaidé pour davantage de régulation. Henna Virkkunen, figure clé des efforts de souveraineté technologique de l’Union européenne, a avancé l’idée selon laquelle l’approche réglementaire européenne pourrait s’imposer comme une norme mondiale, en accord avec le Brussels Effect, selon lequel les régulations de l’UE influencent les politiques internationales en incitant les entreprises étrangères à adopter ses standards pour accéder à son marché.
À la clôture du sommet, une évidence persiste : les interrogations restent plus nombreuses que les réponses. L’ambition d’une IA éthique, durable et inclusive semble, pour l’instant, plus idéaliste qu’atteignable. L’avenir de l’IA ne sera pas uniquement déterminé par la technologie, mais par la volonté politique, le contrôle citoyen et les choix que feront les sociétés.
Reste à savoir si ces choix mèneront vers une IA plus éthique ou s’ils accentueront les inégalités existantes. Une chose est sûre : aucun sommet n’est pour l’instant prêt à trancher cette question.
Suivre les commentaires :
|
