« L’IA » mérite un débat intelligent

Share on FacebookTweet about this on TwitterShare on Google+Share on LinkedInEmail this to someonePrint this page

Suite au « sommet de l’Intelligence artificielle » (IA) ouvert à Paris les 10 et 11 février 2025, nous publions ci-dessous des contributions associatives et syndicales à la réflexion suscitées par la déferlante IA. Nous commençons par le lancement de la coalition baptisée Hiatus, comprenant des « organisations de la société civile » et des syndicats (dont le SNES FSU, l’Union syndicale Solidaires, le Syndicat de la magistrature et le Syndicat des avocats de France). Plus bas : les autres syndicats. 

Hiatus-Resister-a-lIA-et-son-monde-800x600-opt

Lancement de la coalition Hiatus, pour résister à l’IA et son monde !

Ce texte est le manifeste fondateur de « Hiatus », une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle (IA). À l’approche du sommet sur l’IA organisé par la France, les 10 et 11 février 2025, le lancement de Hiatus vise à dénoncer l’inféodation des politiques publiques aux intérêts de la tech, ainsi que les coûts humains et environnementaux de l’IA. Au cours des mois à venir, des actions communes seront organisées pour décliner ce manifeste sur le plan politique.

Tout concourt à ériger le déploiement massif de l’intelligence artificielle en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique. Partout dans les services publics, l’IA est ainsi amenée à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les managers appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent notamment de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

Comment ne pas voir qu’en tant que paradigme industriel, l’IA a dores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néo-coloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ? Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace alors qu’elle cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé. À longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance. Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.

Premiers signataires :

La Quadrature du Net, la LDH, Union syndicale Solidaires, Scientifiques en rébellion, L’Atelier Paysan, Féministes contre le cyberharcèlement, SNES-FSU, Framasoft, Agir pour l’environnement, Attac France, Syndicat de la Magistrature, Syndicat des Avocats de France, Stop Micro, Le Nuage était sous nos pieds, Génération Lumière, Halte au contrôle numérique, ritimo, Intérêt à Agir, L’Observatoire des multinationales, Sherpa, Le Mouton numérique, Lève les yeux.

rp_logo_CGT.png

 

La CGT appelle à une régulation démocratique de l’intelligence artificielle au Sommet pour l’action sur l’IA

Publié le 6 fév. 2025
À l’approche du Sommet pour l’action sur l’intelligence artificielle en France, la CGT publie une contribution soulignant l’importance d’une régulation démocratique de l’IA. La CGT exige des garanties sur la protection des droits des travailleur·ses, la transparence des algorithmes et un contrôle public de la production d’IA. Elle appelle à une coopération internationale pour que l’IA serve l’intérêt général, et non les intérêts privés des grandes entreprises numériques, tout en garantissant la souveraineté et le bien-être des citoyen·nes.
Imagette
visuel du sommet pour l'action sur l'IA

La CGT a été sollicitée afin de fournir une contribution en vue du Sommet pour l’action sur l’IA en France.

La CGT regrette vivement de ne pas avoir été formellement sollicitée, comme les autres organisations syndicales françaises, ainsi que nos organisations syndicales européennes (la Confédération européenne des syndicats – CES – et Eurocadres), et internationale (la Confédération syndicale internationale – CSI), à la construction de ce sommet, en particulier dans sa composante « Avenir du travail », en dehors du cadre du Comité du dialogue social européen et international (CDSEI).

Pour la CGT, l’intelligence artificielle est un outil au service des êtres humains qui peut permettre le progrès si le contrôle des données, des algorithmes, des conditions de leur production et de fixation de leur prix n’est pas laissé aux mains du marché, et en particulier celles des grandes entreprises du numérique. 

Le déploiement de l’IA doit, pour les travailleurs·ses, offrir un horizon de protection de leurs conditions de travail, de leurs métiers, de leurs qualifications et de leurs emplois grâce à une anticipation et une sécurisation des reconversions.

Si l’IA peut être un atout permettant d’anticiper les transformations de l’appareil productif, elle ne peut pas servir de prétexte aux suppressions d’emplois et aux délocalisations. L’action internationale à mettre en œuvre sur l’IA doit être démocratique et viser des objectifs sociaux et environnementaux garantissant le bien-être humain.

Pour la CGT l’action internationale sur l’IA doit permettre la construction de garanties démocratiques dans toutes les dimensions de l’IA

Les garanties démocratiques doivent porter sur la conception des outils d’IA et la définition de leur finalité.

Le recours à l’IA doit avoir pour finalité de répondre à l’intérêt général. Pour cela il doit résulter d’une décision éclairée, notamment par une recherche publique correctement financée. Les outils d’IA ayant une forte utilité sociale doivent être priorisés et le choix de déployer ou non un outil d’IA doit être fait en tenant compte des limites sociales et environnementales.

La décision sur l’automatisation de certaines fonctions n’est pas qu’un choix technologique et doit être prise dans le cadre d’un débat démocratique.

Pour que la puissance publique française puisse assurer un contrôle démocratique sur la production d’IA et sa finalité, elle doit se donner les moyens d’investir dans un véritable pôle de développement de l’IA au service de l’intérêt général adossé à des outils garantissant sa souveraineté (cloud, laboratoires publics de recherche chargés du contrôle et de la mise à jour des outils).

À ce titre, elle ne saurait placer la stratégie d’action sur l’IA uniquement entre les mains des grandes entreprises du numérique d’une part, et de start-up financées par des subventions publiques d’autre part, et dont la vocation est d’être rachetées par les premières.

En miroir, pour garantir l’indépendance et l’efficacité de la recherche publique en matière d’IA, la puissance publique doit s’assurer qu’elle ne dépend pas des grandes entreprises du numérique.

Pour cela, elle doit impulser une politique de recherche et développement et structurer de nouvelles filières du numérique en France et en Europe, en lien avec les travailleur·ses scientifiques et académiques, et au travers de coopérations internationales équilibrées et mutuellement avantageuses.

Le déploiement de l’IA par la puissance publique notamment dans les services publics ne peut se faire que dans un objectif d’intérêt général d’inclusion des citoyen·nes et usager·es du service public dans leur diversité, avec une garantie d’accès équitable aux technologies et le respect des droits de ces citoyen·nes et usager·es (confidentialité des données).

La puissance publique doit en outre se donner les moyens d’assurer ses missions afin d’empêcher que les marchés privés ne se saisissent de l’opportunité de la faiblesse des financements des services publics universels pour les remplacer par des outils d’IA n’offrant pas les garanties précitées.

L’IA doit servir à renforcer la démocratie, pas à la détruire

Les grandes entreprises du numérique doivent être placées sous contrôle démocratique.

L’utilisation des outils d’IA, par quelque acteur qu’il soit, ne saurait donner lieu à de l’incertitude informationnelle, à la manipulation des personnes, notamment sur les réseaux sociaux ou par la voie des médias. Chaque citoyen·ne doit bénéficier de la garantie de traçabilité des productions issues d’outils d’IA mises à sa disposition, afin d’en connaître la nature et les sources. Pour cela, chaque citoyen·ne doit pouvoir, dès son plus jeune âge, être éduqué·e sur cet outil et ses enjeux.

Les outils d’IA ne peuvent être utilisés contre les règles démocratiques et les libertés fondamentales. Cela concerne tout d’abord la liberté des citoyen·nes dans leur vie quotidienne (déplacements, achats, etc.) et dans leur travail (outils de politiques managériales). Cela concerne ensuite l’égalité des citoyen·nes dans leur accès à des services publics ou privés. Les outils d’IA doivent ainsi offrir des garanties d’absence de biais discriminatoires, notamment envers les femmes et tous les autres groupes sociaux discriminés.

Cela concerne aussi la sécurité, l’IA doit servir la paix et le désarmement. Les armes létales autonomes doivent être interdites et l’être humain doit garder le contrôle.

Pour garantir le respect de ces principes, la puissance publique doit offrir des droits nouveaux aux citoyen·nes (droit à l’image, à la protection des données, à l’oubli, etc.), dont le respect sera contrôlé par des instances d’évaluation et de contrôle indépendantes suffisamment financées et dotées de pouvoirs de sanctions.

Les garanties démocratiques doivent porter sur les conditions sociales et environnementales de production de l’IA.

La production d’IA repose sur des ressources matérielles limitées (production d’électricité, de métaux, utilisation des sols, de l’eau) qui nécessitent de la transparence sur leur utilisation, mais aussi des critères et des instances démocratiques d’arbitrage permettant de régler les conflits d’usage.

S’agissant des ressources immatérielles (création et annotation des données, développements informatiques) : la transparence doit être faite sur les bases d’apprentissage et les réglages de l’IA qui doivent être ouverts et certifiés par des instances pluralistes, indépendantes et représentatives de la société civile, afin de garantir l’explicabilité, la fiabilité, et l’absence de biais systématiques de l’IA.

Les données doivent être considérées comme un bien commun afin que les innovations qui découlent de leur utilisation bénéficient au plus grand nombre. Les utilisateur·ices de l’IA, travailleur·ses, citoyen·nes usager·es et client·es doivent être associé·es à l’élaboration et à l’adaptation de l’outil IA, informé·es sur l’usage de leurs données, mais aussi associé·es à ses gains financiers dès lors qu’elles et ils produisent et valorisent les données utilisées par l’outil IA.

Les garanties démocratiques doivent porter sur la nature et le volume des financements alloués à la production d’IA.

Sont concernés les financements privés qui ne sauraient uniquement être captés par les grandes entreprises du numérique qui influencent les marchés par leur comportement y compris pour déstabiliser des démocraties. Le recours à l’IA ne peut donner lieu à des démarches de spéculation sur les marchés.

Sont également concernés les financements publics alloués aux entreprises qui produisent ou déploient l’IA qui doivent être orientés vers des projets d’IA visant l’intérêt général.

Ces financements dans leur diversité (aides directes, exonérations, exemptions fiscales et sociales, faibles taux fiscaux et sociaux, utilisation gratuite des ressources matérielles et immatérielles produites grâce aux investissements publics – éducation, recherche, infrastructures -, etc.) ne sauraient être versés sans expertise indépendante préalable, sans conditions sociales et environnementales, sans contreparties, sans transparence et sans contrôle et ce sur l’ensemble de la chaîne de production.

Sont enfin concernés les financements publics visant à la transformation numérique des services publics par l’introduction d’outils d’IA, qui ne sauraient se faire au détriment du maintien et du renforcement des ressources humaines et matérielles de ces services et des garanties d’accès des citoyen·nes usager·es de ceux-ci.

Les garanties démocratiques doivent être mises en œuvre à tous les niveaux de prise de décision : de la gouvernance internationale, à celle des entreprises, et jusqu’à l’expression citoyenne des individus. Elles impliquent des délibérations collectives, transparentes, s’appuyant sur l’expertise d’une recherche publique dont l’indépendance est garantie, et des moyens de contrôle du respect de ces garanties.

Pour la CGT l’action internationale sur l’IA dans le domaine du travail ne saurait se limiter à la création d’observatoires internationaux, à des « engagements » des grandes entreprises du numérique ou à des chartes non contraignantes. L’action internationale sur l’IA et le travail ne saurait non plus être traitée par une organisation internationale ad hoc dans laquelle les grandes entreprises du numérique auraient la part belle de la décision.

Pour la CGT l’action internationale sur l’IA dans le domaine du travail doit être traitée dans le cadre de gouvernance international le plus démocratique à l’heure actuelle : l’Organisation internationale du travail (OIT), organisation tripartite dans laquelle les organisations syndicales de travailleur·ses ont le même poids que les gouvernements et les organisations patronales.

Les discussions qui débuteront en juin 2025 sur une norme internationale de l’OIT sur les travailleur·ses des plateformes que la CGT souhaite ambitieuse ne couvriront pas l’ensemble des dimensions de l’IA au travail et doivent dès lors donner lieu à une norme ad hoc qui couvrira tou·tes les travailleur·ses impliqué·es dans la chaîne de production de l’IA ou exposé·es à cet outil.

Pour la CGT la régulation de l’IA doit être menée dans les cadres multilatéraux du système de l’Organisation des nations unies (ONU).

Le sommet pour l’action sur l’IA en France doit conduire les États présents à s’engager à lancer des travaux visant à la signature d’une convention de l’OIT sur l’IA.

Le sommet pour l’action sur l’IA en France doit conduire la Commission européenne et les États membres de l’Union européenne à s’engager à lancer des travaux visant à la construction d’une directive européenne sur l’IA.

Pour la CGT l’action internationale sur l’IA doit donner lieu à des engagements en faveur des travailleur·ses

Chaque travailleur·se doit être protégé·e dans toutes les dimensions de sa vie.

Dans ses conditions de travail d’une part, il ou elle doit pouvoir bénéficier d’une prévention efficace des risques professionnels associés à l’IA et de nouveaux droits lui permettant de protéger sa santé physique et mentale en cas de danger : un droit à la formation sur l’IA, un droit à la protection contre la surveillance algorithmique, un droit à être associé·e à l’élaboration et à l’adaptation de l’outil IA, un droit à garder la maîtrise des décisions et de pouvoir à tout moment reprendre la main sur l’outil IA, un droit à l’information sur l’exploitation des données créées par les travailleur·ses et de propriété intellectuelle sur celles-ci, un droit de retrait d’une situation de travail dangereuse, un droit de refus et de proposition alternative.

Dans ses conditions de vie d’autre part, il ou elle doit pouvoir bénéficier d’une sécurité sociale professionnelle lui garantissant un droit à l’emploi et à la protection contre le chômage, un droit à la formation professionnelle, un droit au salaire et à la continuité de revenu, un droit à la protection de sa qualification et à l’évolution de carrière.

Par l’intermédiaire des représentant·es syndicaux·les, les travailleur·ses doivent pouvoir bénéficier de droits collectifs leur permettant de défendre leurs intérêts en cas de déploiement et d’usage de l’IA.

Les employeurs doivent être soumis à de nouvelles obligations dans les entreprises, les services publics, dans les territoires et les filières professionnelles : obligation d’évaluer et de prévenir l’ensemble des risques professionnels induits par l’IA, obligation de former les travailleur·ses à l’outil IA et à leurs droits, obligation de négocier et d’informer et consulter sur le déploiement de l’IA et notamment sur le partage des gains financiers qui en résultent, obligation de respecter la transparence permanente sur les décisions et processus mis en œuvre en lien avec l’IA, obligation de prendre en compte la prévention des biais discriminatoires dans la conception et l’utilisation des outils d’IA.

Les représentant·es syndicaux·les des travailleur·ses doivent être doté·es de droits nouveaux dans les entreprises, les services publics, dans les territoires et les filières professionnelles : droit à être formé·es sur les enjeux relatifs à l’IA, droit d’accès à une information transparente sur le déploiement de l’IA et ses effets sur les dimensions de la vie au travail des travailleur·ses, droit de veto et de proposition alternative sur la stratégie de l’employeur en matière d’IA et sur le réglage de l’outil IA déployé dans le travail, droit à l’expertise antérieure et postérieure au déploiement de l’outil IA au travail.

Afin que les travailleur·ses et leurs représentant·es syndicaux·les puissent faire valoir leurs droits ils et elles doivent être aidé·es par des structures publiques indépendantes dotées de moyens techniques et humains garantissant l’efficacité de leur mission, y compris dans le cadre d’une collaboration internationale visant l’intérêt général. Parmi ces structures, certaines doivent être chargées du contrôle et des sanctions des employeurs (inspections du travail et autres services de contrôle du respect des droits notamment humains liés à l’utilisation des données). D’autres doivent être chargées des études sur les effets de la production et de l’utilisation de l’IA sur la démocratie et l’information, l’environnement, l’emploi, les conditions de travail, l’égalité et l’accès aux services publics, etc.

La production d’IA repose entièrement sur le travail humain. Les richesses qui en sont issues doivent dès lors être redistribuées aux travailleur·ses par le salaire et/ou le versement de droits d’auteur·ices et de droits voisins – y compris via le financement, par les cotisations sociales de la sécurité sociale professionnelle –, la réduction du temps de travail et la formation tout au long de la vie.

Lors de ce sommet les intérêts matériels et moraux des travailleur·ses du monde entier devront être entendus afin que l’IA demeure un outil au service de l’humain.

Le sommet pour l’action sur l’IA en France doit conduire les acteur·ices présent·es à s’engager à défendre les droits des travailleur·ses, et non ceux exclusifs des grandes entreprises du numérique, en ce qui concerne le déploiement de l’IA. 

Le Sommet pour l’action sur l’IA doit donner lieu à des annonces par le gouvernement français de garanties de subvention pérenne de l’Institut de recherches économiques et sociales (Ires) en matière de recherche sur l’IA afin que le monde du travail puisse être éclairé par des expert·es académiques indépendant·es.

unnamed

IA : quel dialogue social ?

iconeExtrait de l’hebdo n°3952

Luc Mathieu, secrétaire national.

Luc Mathieu, secrétaire national.© Joseph Melin

Luc Mathieu

secrétaire national de la CFDT

Au moment où la France accueille un sommet européen sur l’intelligence artificielle, essentiellement focalisé sur les dimensions économiques et de souveraineté, et alors que les uns et les autres promettent monts et merveilles, une société débarrassée des tâches ennuyeuses et répétitives mais centrée sur celles dites « à haute valeur ajoutée », il est sans doute nécessaire de repréciser certaines choses. Dans les entreprises, traiter de la question du numérique et de l’intelligence artificielle doit être l’occasion de poser la question du pourquoi.

Il faut le rappeler, il n’y a aucun déterminisme technologique en la matière. Ce qui se passera dans ce domaine, ce sera ce qui a été voulu. Car derrière chaque projet mis en œuvre, il y a une intention, des objectifs, des résultats attendus, c’est-à-dire une stratégie, que les salariés et leurs représentants sont totalement légitimes à interroger. Quels sont les effets sociaux, économiques, environnementaux, sociétaux de ces projets ? Quels effets sur le travail et les salariés ? Comment conjuguer innovation et cadre d’action clair et protecteur pour les salariés.

On le sait, les effets des innovations technologiques du numérique et de l’IA sont ambivalents, et ses enjeux très nombreux : volume, contenu et conditions d’exercice des emplois, cybersécurité et protection des données, biais et discriminations algorithmiques, respects des droits d’auteur et des droits voisins, préservation des libertés individuelles et collectives, etc.

C’est pourquoi la CFDT affirme que le dialogue social doit être au centre des travaux de mise en œuvre des outils numériques et des systèmes algorithmiques au travail. Robots, logiciels, caméras et objets connectés ne sont pas de simples outils techniques : ils ont des implications sociales majeures et doivent être discutés avec les représentants des travailleurs.

Malheureusement, ce dialogue social technologique est aujourd’hui trop peu mis en œuvre. Il est urgent d’y remédier. C’est pourquoi la CFDT appelle à la négociation d’un accord national interprofessionnel concernant le numérique et l’IA au travail. Il ne faut pas craindre l’intelligence artificielle, certes, mais pas non plus le dialogue social – dont la vivacité est un facteur de réussite, y compris économique, pour la vie des entreprises et de leurs salariés.

Print Friendly

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *