L'IA pour détecter les comportements suicidaires sur les réseaux sociaux
Après une première expérience en 2017 jugée concluante par Facebook, c'est au tour du gouvernement canadien de tester les capacités de l'intelligence artificielle sur le "big data" des réseaux sociaux afin d'identifier et de prévenir les comportements suicidaires.
Même si cela fait plus de 10 ans que Facebook travaille sur la détection des comportements suicidaires de ses membres, ce n'est que depuis mars 2017, que ce géant du web utilise les capacités de l'intelligence artificielle.
Jusqu'alors, le programme de détection des comportements suicidaires reposait sur le signalement par d'autres utilisateurs et l'interconnexion avec des plateformes d'écoute et de soutien.
Hélas, le programme est souvent trop lent pour prévenir le passage à l'acte. Facebook se tourne vers l'IA pour passer à la détection pro-active, optimiser la rapidité de transmission des dossiers et lance une première expérimentation aux Etats-Unis. Les messages écrits ou vidéos de tous les membres sont donc systématiquement analysés pour identifier et hiérarchiser, avant tout signalement humain, des comportement suicidaires.
Et visiblement celà fonctionne puisque en moyenne, les dossiers de ces personnes sont transmises deux fois plus rapidement aux structures locales de prises en charge. Facebook a décidé en novembre dernier de généraliser l'expérimentation à l'ensemble de son réseau sauf en Europe où la législation ne le permet pas.
L'IA au cœur d'un programme canadien pour détecter les comportements suicidaires sur les réseaux sociaux
C'est probablement suite à cette initiative que le CANADA a lui aussi décidé de lancer sa propre expérimentation.
Selon un contrat public établi avec Advanced Symbolics, une entreprise spécialisée en Intelligence Artificielle, le gouvernement canadien vient de lancer les étapes préliminaires d'un programme visant à détecter les comportements suicidaires sur les réseaux sociaux.
Les premières étapes consistent à modéliser les comportements à risque puis à les comparer aux données publiques, préalablement anonymisées issues des réseaux sociaux.
L'entreprise, spécialisée en étude de marché et en enquête d'opinion, a 6 mois pour valider les modèles et segmenter la population canadienne en sous groupe homogène par rapport au risque de suicide. Elle devra présenter une maquette d'un rapport mensuel permettant au gouvernement canadien de disposer pour chaque groupe d'une vision dynamique des modèles utilisés, des facteurs de risque et de prévention.
Cette maquette servira a évaluer l'utilité de la mise en place d'une surveillance continue, systématique et automatisée des comportements suicidaires des canadiens sur le web public.
Même si la prévention du suicide surtout chez les adolescents est d'un intérêt certain en terme de santé publique, on tremble déjà à l'idée que de telles techniques puissent être utilisées à des fins moins nobles.
Descripteur MESH : Gouvernement , Intelligence , Intelligence artificielle , Risque , Suicide , Membres , Mars , Santé publique , Santé , Réseau , Population , Personnes , Canada , Législation , Facteurs de risque , Europe , Comportement