Actions ChatGPT évitables sur le lieu de travail

ChatGPT et autres sont de bons assistants sur le lieu de travail, mais représentent aussi un risque potentiel pour la sécurité. Le spécialiste de la sécurité informatique Forcepoint explique quelles sont les tâches qu'il vaut mieux continuer à effectuer soi-même.

ChatGPT et autres : un risque potentiel pour la sécurité. (Image : www.pixabay.com)

Répondre à des questions, écrire des textes et même créer du code source : Les outils d'IA générative comme ChatGPT, Bard et Copilot ont des capacités étonnantes et sont également très populaires sur le lieu de travail. Ce n'est pas étonnant, car ils facilitent le travail.

Ce que beaucoup ignorent, c'est que ces outils représentent un risque potentiel pour la sécurité. En effet, leurs fournisseurs utilisent non seulement des informations librement disponibles sur Internet pour entraîner leurs modèles d'IA et générer la sortie des outils, mais aussi les données saisies par les utilisateurs. Les données que l'on saisit soi-même pourraient ainsi se retrouver dans les réponses d'autres utilisateurs.

Les entreprises et les employés devraient donc bien réfléchir aux tâches qu'ils confient à ChatGPT. Forcepoint explique pourquoi il vaut mieux ne pas utiliser les outils d'intelligence artificielle générative au travail.

Rédiger des réponses aux questions des clients ou des tickets de support. De tels textes contiennent presque toujours des informations personnelles sur les clients et la propriété intellectuelle de la propre entreprise. Le risque est de donner un avantage à la concurrence et d'avoir des ennuis avec les autorités de protection des données.

créer des contenus pour le lancement d'un produit ou d'autres annonces importantes de l'entreprise La dernière acquisition est encore super secrète et doit être gardée sous clé jusqu'à ce que toutes les signatures soient là ? Grâce au prompt d'un tiers, elle pourrait apparaître dans sa réponse et ainsi trouver le chemin de la publicité.

Analyser les prix, les performances financières ou les budgets de sa propre entreprise. Si un concurrent cherche des informations sur la situation financière de l'entreprise, il pourrait les trouver de cette manière. Il vaut donc mieux utiliser un outil stocké localement ou une calculatrice.

Déboguer le code ou écrire un nouveau code. Lorsque l'IA générative crée un code, celui-ci peut contenir des logiciels malveillants ou une porte dérobée. Si vous l'utilisez pour le débogage, votre code peut se retrouver entre les mains d'autres programmeurs.

Résumer les contenus personnels tels que les CV ou les présentations et documents internes à l'entreprise. De tels contenus n'ont pas leur place sur ChatGPT et autres. D'autant plus que les exploitants de ces outils pourraient eux-mêmes être victimes d'une violation de données et que des données sensibles pourraient alors s'écouler par ce biais.

"Les outils d'intelligence artificielle générative comportent de grands risques de sécurité. En bloquer l'accès au bureau est un peu trop ambitieux et souvent inutile. De tels outils rendent les collaborateurs plus productifs et ceux-ci y accèdent de toute façon souvent depuis l'extérieur du réseau de l'entreprise", explique Fabian Glöser, Team Lead Sales Engineering chez Forcepoint. "Il vaut mieux sensibiliser les collaborateurs aux risques et les protéger avec des solutions de sécurité des données contre les inattentions lourdes de conséquences dans le rythme effréné du travail quotidien".

Source : www.forcepoint.com 

(Visité 48 fois, 1 visites aujourd'hui)

Plus d'articles sur le sujet