A un mois de la COP28, les risques liés au changement climatique inquiètent toujours. Et ils arrivent pour la première fois en tête des risques émergents dans toutes les régions du monde, selon la dixième édition du Futures Risks Report publié par l'assureur AXA ce lundi. Mené auprès de 3.300 experts de 50 pays et de 19.000 personnes du grand public dans 15 pays en juin dernier, le Futures Risks Report mesure et classe chaque année leur perception de l'évolution et de l'émergence des risques. En étudiant les nouveaux risques « nous identifions de nouvelles solutions », explique le groupe.

Parmi les autres principales sources d'inquiétude, on trouve toujours également les risques liés à la cybersécurité, les pandémies et les maladies infectieuses, l'instabilité géopolitique et les tensions sociales. Ce qui fait dire à AXA que l'étude montre que les crises ne se succèdent plus, elles se superposent. 

Pourtant, cette année l'intelligence artificielle (IA) et la Big Data font une entrée fracassante en haut du classement des risques émergents, passant de la 14e place en 2022 à la 4e place cette année du côté des experts. Et si ces technologies sont moins citées par le grand public, au niveau mondial, ils arrivent à la sixième place en Asie et en septième position en Amérique. 

Une levée de boucliers contre ChatGPT

« Les risques liés à la technologie en général sont perçus comme ceux qui émergent le plus rapidement », a expliqué Etienne Mercier, directeur du pôle Opinion chez Ipsos, avec qui AXA réalise l'étude. Il faut dire que l'arrivée de ChatGPT et de l'IA générative a fait grand bruit et provoqué une levée de boucliers dans de nombreux secteurs, en raison de craintes pour l'emploi.

En plus de la Big Data, experts et populations s'inquiètent des technologies disruptives en général, des risques éthiques et économiques liés à leur utilisation et de leurs conséquences sur l'avenir du travail. L'avenir de l'emploi est notamment une préoccupation majeure en Asie, et particulièrement en Chine, une région qui adopte souvent rapidement les technologies de pointe. En Europe, le grand public n'a toutefois pas vraiment encore conscience de ces risques.

La majorité des experts placent même cette technologie comme un risque en raison de la « menace existentielle que l'avancée de l'IA pourrait représenter pour l'humanité », explique le rapport. La majorité des experts (64 %) et de la population générale (70 %) estime même qu'il serait nécessaire d'interrompre la recherche sur l'IA.

Une réglementation responsable

Globalement, l'opinion selon laquelle les avancées technologiques créent plus de risques qu'elles n'en résolvent continue de progresser. Elle est désormais partagée par la moitié de la population (52 % en France, 49 % aux Etats-Unis). Le sentiment de vulnérabilité face au risque posé par l'IA progresse également, car globalement les pouvoirs publics et le secteur privé sont considérés comme moins bien préparés pour y faire face, contrairement à d'autres risques. « C'est un sujet qui est au coeur des réflexions européennes avec la nécessité de trouver un bon équilibre, a expliqué Frédéric de Courtois, directeur général adjoint d'AXA. Nous sommes très favorables à une réglementation responsable et équilibrée. » Il a notamment mis en garde contre le fait d'adopter une réglementation trop dure sur l'IA, « car nous sommes en concurrence avec les Etats-Unis et la Chine et nos entreprises ont besoin d'avoir des données pour avancer sur ces sujets. » Sur les catastrophes naturelles qui se multiplient, Frédéric de Courtois a expliqué qu'AXA pensait que tous les risques de ce type étaient assurables à condition qu'ils soient évalués au juste prix, ce qui n'était pas encore tout à fait le cas. Ces phénomènes récents par leur violence sont encore mal documentés.

Le directeur général adjoint du deuxième assureur mondial a également mis en avant l'efficacité du partenariat public/privé qui existe en France et salué le rapport Langreney sur l'évolution du système assurantiel face au dérèglement climatique, « qui sera extrêmement utile ».