Malwarebytes, un des leaders de la cyberprotection en temps réel, a récemment diffusé les résultats de son enquête d’opinion sur les craintes autour de l’IA générative et de ChatGPT plus spécifiquement. Retour sur les faits marquants de ce rapport avec BtoB Leaders.
« Faible confiance » envers ChatGPT : la précision et la sécurité en cause
L’enquête révèle que ChatGPT ne recueille pas la confiance d’une grande proportion de ses utilisateurs. Seulement 10 % des personnes interrogées adhèrent à l’énoncé suivant : « Je fais confiance aux informations fournies par ChatGPT », tandis que 63 % expriment leur désaccord. Le sentiment est similaire en ce qui concerne la précision des informations : seuls 12 % des répondants se disent en phase avec l’énoncé : « les informations fournies par ChatGPT sont précises ». Une majorité (55 %) s’y oppose.
Au-delà des problématiques de confiance et de précision, 81 % des personnes interrogées estiment que ChatGPT pourrait présenter un risque sécuritaire, 52 % d’entre elles préconisant une interruption des travaux sur ChatGPT jusqu’à ce que la technologie s’adapte aux réglementations en vigueur, notamment au niveau de la protection de données.
Seuls 35 % des sondés utilisent régulièrement ChatGPT
Malgré la couverture médiatique intense sur ChatGPT et l’IA générative, seuls 35 % des répondants utilisent régulièrement les outils de type chatbot IA, et 50 % concèdent ne pas véritablement connaître ces solutions.
Parmi ceux qui utilisent ChatGPT de manière régulière :
- Seuls 12 % estiment que les informations produites sont précises ;
- Une large majorité de 81 % exprime des inquiétudes quant aux éventuels risques en matière de sécurité ;
- 63 % se montrent sceptiques envers les informations produites par ChatGPT ;
- Plus de la moitié (51 %) expriment des doutes sur la capacité des outils d’Intelligence Artificielle à renforcer la sécurité sur le web.