VIKL Logo

IA Responsable & AI Act - VIKL

Découvrez comment VIKL se conforme au Règlement européen sur l'intelligence artificielle (AI Act) et s'engage pour une IA responsable.

Notre engagement

VIKL est un compagnon IA conçu pour accompagner les managers dans les situations relationnelles du quotidien. Nous concevons notre technologie avec une conviction forte : l'IA doit servir la lucidité humaine, jamais la remplacer.

Le Règlement européen sur l'intelligence artificielle (UE 2024/1689), dit AI Act, est entré en vigueur le 1er août 2024. Il établit un cadre harmonisé pour le développement et l'utilisation de systèmes d'IA dans l'Union européenne. VIKL s'inscrit pleinement dans ce cadre.

Dernière mise à jour : Avril 2026


1. Classification de risque de VIKL

L'AI Act classe les systèmes d'IA selon quatre niveaux de risque : inacceptable, élevé, limité et minimal. Selon notre analyse, VIKL relève de la catégorie des systèmes d'IA à risque limité.

Pourquoi ?

  • VIKL ne prend aucune décision automatisée ayant un effet juridique ou significatif sur les personnes.
  • VIKL n'est pas conçu pour le recrutement, l'évaluation de performance, le scoring social, la surveillance biométrique, ni aucun des cas d'usage listés à l'Annexe III du règlement.
  • VIKL est un outil d'aide à la réflexion et à la préparation : il génère des suggestions, des reformulations et des plans d'action que le manager choisit librement d'adopter ou non.

À ce titre, VIKL est soumis aux obligations de transparence applicables aux systèmes à risque limité (Article 50) et nous nous engageons à respecter l'ensemble des dispositions générales du règlement.

Notre rôle au sens de l'AI Act

Au sens du règlement, MINDGUARD PROJECT est le fournisseur (provider) du système d'IA VIKL — c'est-à-dire l'entité qui a développé le système et le met sur le marché sous son propre nom. VIKL s'appuie sur des modèles de langage fournis par Azure OpenAI Service (modèles GPAI au sens des Articles 51-56), dont Microsoft/OpenAI sont les fournisseurs. MINDGUARD PROJECT n'est pas fournisseur de ces modèles sous-jacents.

Usage prévu et usages exclus

VIKL est conçu pour un usage précis : accompagner les managers dans la préparation et la gestion de situations relationnelles (tensions d'équipe, feedback, conversations difficiles, recadrage).

VIKL n'est pas destiné et ne doit pas être utilisé pour :

  • le recrutement ou la présélection de candidats ;
  • l'évaluation de performance formelle ou la notation de salariés ;
  • les décisions disciplinaires, de promotion ou de licenciement ;
  • l'évaluation psychologique ou médicale ;
  • la surveillance ou le monitoring des employés ;
  • toute décision ayant un effet juridique ou significatif sur une personne.

Les livrables générés par VIKL (messages, plans d'action, scénarios) sont des outils de réflexion. Ils ne doivent pas être utilisés comme seul fondement d'une décision managériale à fort impact.

Référence : Articles 6, 7 et Annexe III du Règlement (UE) 2024/1689


2. Transparence

Vous savez que vous interagissez avec une IA

Dès le premier échange, VIKL identifie clairement sa nature : c'est un compagnon propulsé par l'intelligence artificielle. Aucune ambiguïté n'est entretenue sur le fait que les réponses sont générées par un système d'IA.

Fonctionnement expliqué

VIKL utilise des modèles de langage (LLM) hébergés sur Azure OpenAI Service en Europe. Ces modèles analysent le contexte que vous décrivez et génèrent des suggestions adaptées, en s'appuyant sur des méthodologies issues de la psychologie organisationnelle et de la médiation.

VIKL ne prend pas de décision à votre place. Chaque suggestion, reformulation ou plan d'action est un outil de réflexion que vous restez libre d'utiliser, d'adapter ou d'ignorer.

Limites du système

  • VIKL n'a pas accès au contexte réel de votre entreprise au-delà de ce que vous lui partagez.
  • Les suggestions ne constituent ni un avis juridique, ni un avis médical, ni une prescription RH.
  • Comme tout système basé sur des LLM, VIKL peut occasionnellement produire des réponses imprécises ou inadaptées.

Référence : Article 50 du Règlement (UE) 2024/1689


3. Supervision humaine

Le manager reste décisionnaire

VIKL est conçu comme un outil d'aide à la décision, pas comme un système autonome. L'architecture du produit a été pensée pour maintenir la supervision humaine à chaque étape :

  • Aucune action automatique : VIKL ne contacte personne, n'envoie aucun message, ne modifie aucun système RH.
  • Livrables à valider : les messages de feedback, plans d'action et scénarios générés sont des brouillons que le manager révise et adapte avant utilisation.
  • Pas de boucle de décision fermée : VIKL suggère, le manager décide et agit.

Pas d'inférence d'émotions

L'AI Act interdit l'utilisation de systèmes de reconnaissance d'émotions sur le lieu de travail (Article 5.1.f). Ce point est particulièrement pertinent pour VIKL, qui accompagne les managers dans des situations à forte charge émotionnelle (tensions, conflits, feedback difficile).

VIKL n'infère pas les émotions de ses utilisateurs. Concrètement :

  • Pas de détection émotionnelle : VIKL n'analyse pas le texte de l'utilisateur pour en déduire un état émotionnel (stress, colère, anxiété, etc.). Aucun algorithme de sentiment analysis ou d'emotion recognition n'est appliqué aux messages de l'utilisateur.
  • Pas de classification d'états émotionnels : VIKL ne produit aucun label, score ou profil émotionnel de l'utilisateur — ni pour lui-même, ni pour un tiers, ni pour un employeur.
  • Garde-fous techniques : des mesures spécifiques ont été intégrées dans l'architecture du système (instructions de cadrage, filtres de sortie) pour empêcher tout comportement d'inférence émotionnelle, y compris de manière incidente.

VIKL aide le manager à décrire et structurer une situation relationnelle. C'est l'utilisateur qui qualifie le contexte, les enjeux et les dynamiques en jeu. VIKL ne cherche jamais à deviner ce que l'utilisateur ressent.

Pas de profilage ni de notation

VIKL ne note pas les compétences managériales de ses utilisateurs. Les auto-évaluations (DISC, leadership, feedback) sont renseignées volontairement par l'utilisateur pour personnaliser les recommandations, et ne sont jamais partagées avec l'employeur.

Référence : Articles 5.1.f et 14 du Règlement (UE) 2024/1689


4. Données, vie privée et robustesse

Vos données ne servent pas à entraîner l'IA

Les conversations avec VIKL ne sont jamais utilisées pour entraîner ou affiner des modèles d'IA, ni par VIKL, ni par nos fournisseurs de modèles. Cette garantie est contractuellement établie avec Azure OpenAI Service.

Hébergement européen et chiffrement

  • Hébergement : Azure Europe (France et Europe de l'Ouest).
  • Chiffrement : les données sont chiffrées en transit (TLS 1.2+) et au repos (AES-256). Les conversations sont protégées de manière à ce que ni l'employeur, ni les équipes VIKL n'aient accès à leur contenu en clair.
  • Isolation des données : les données de chaque organisation sont logiquement séparées.

Conformité RGPD

VIKL est conforme au Règlement général sur la protection des données (RGPD). Pour le détail des traitements, bases légales, durées de conservation et droits des personnes, consultez notre Politique de confidentialité.

Qualité et pertinence des données

Les données d'entraînement des modèles sous-jacents sont gérées par Azure OpenAI Service selon leurs propres procédures de qualité et de gouvernance. VIKL enrichit ces modèles avec des méthodologies structurées (psychologie organisationnelle, médiation, leadership) pour garantir la pertinence des réponses dans son domaine d'application.

Note : Les Articles 10 et 15 de l'AI Act s'appliquent principalement aux systèmes d'IA à haut risque. Bien que VIKL relève du risque limité, nous nous inspirons volontairement de ces exigences en matière de qualité des données et de robustesse comme bonnes pratiques.

Référence : Règlement (UE) 2016/679 (RGPD) ; Articles 10, 15 du Règlement (UE) 2024/1689 (à titre de bonnes pratiques)


5. Littératie IA

Depuis le 2 février 2025, l'Article 4 de l'AI Act impose aux fournisseurs et déployeurs de systèmes d'IA de promouvoir la littératie en matière d'intelligence artificielle auprès de leur personnel et de leurs utilisateurs.

Comment VIKL contribue

  • Onboarding explicatif : chaque nouvel utilisateur est informé de la nature IA de VIKL, de ses capacités et de ses limites.
  • Transparence continue : VIKL rappelle régulièrement qu'il s'agit d'un outil d'aide à la réflexion, pas d'un substitut au jugement humain.
  • Ressources éducatives : notre blog publie régulièrement des contenus sur l'utilisation responsable de l'IA en management (L'IA peut-elle vraiment aider les managers ?, Coaching individuel vs coaching IA).

Référence : Article 4 du Règlement (UE) 2024/1689


6. Pratiques interdites

L'Article 5 de l'AI Act interdit certaines pratiques d'IA jugées inacceptables. VIKL n'utilise aucune de ces pratiques :

Pratique interditePosition de VIKL
Techniques de manipulation subliminale ou trompeuseVIKL ne manipule pas le comportement de l'utilisateur. Les suggestions sont explicites et modifiables.
Exploitation de vulnérabilités (âge, handicap, situation sociale)VIKL ne cible pas et n'exploite aucune vulnérabilité.
Scoring socialVIKL ne note pas les individus et ne produit aucun score comportemental.
Évaluation du risque de commission d'infractions (profilage prédictif)Non applicable.
Reconnaissance faciale et biométrieVIKL ne traite aucune donnée biométrique.
Inférence d'émotions sur le lieu de travail (Art. 5.1.f)VIKL n'infère pas les émotions de ses utilisateurs. Aucune analyse de sentiment, reconnaissance d'émotions ou classification d'états émotionnels n'est effectuée — ni à partir du texte, ni à partir de données biométriques. Des garde-fous techniques sont intégrés au système pour prévenir tout comportement d'inférence émotionnelle.
Catégorisation biométriqueNon applicable.

Référence : Article 5 du Règlement (UE) 2024/1689


7. Gouvernance et contact

Responsabilité

VIKL est développé et opéré par MINDGUARD PROJECT (SIRET : 988 560 009 00017), société française basée à La Garenne-Colombes (92).

La conformité AI Act est supervisée par la direction générale de l'entreprise, en coordination avec nos équipes produit et technique.

Veille réglementaire

Nous suivons activement les travaux du Bureau européen de l'IA (AI Office), les lignes directrices du Comité européen de l'intelligence artificielle et les publications de la CNIL pour adapter nos pratiques au fur et à mesure de la mise en œuvre du règlement.

Nous contacter

Pour toute question relative à la conformité AI Act de VIKL :

  • Email : privacy@vikl.ai
  • Adresse : MINDGUARD PROJECT, 73 Avenue Foch, 92250 La Garenne-Colombes, France

Référence : Article 26 du Règlement (UE) 2024/1689


Calendrier de conformité

ÉchéanceObligationStatut VIKL
2 février 2025Interdiction des pratiques inacceptables (Art. 5)✅ Mesures en place
2 février 2025Littératie IA (Art. 4)✅ Mesures en place
2 août 2025Obligations fournisseurs de modèles GPAI (Art. 51-56)Non applicable (MINDGUARD PROJECT est fournisseur du système VIKL, pas des modèles GPAI sous-jacents)
2 août 2026Obligations de transparence (Art. 50)✅ Mesures en place
2 août 2027Obligations systèmes à haut risque (Art. 6-49)Non applicable selon notre analyse (risque limité)

Ce document est fourni à titre informatif et ne constitue pas un avis juridique. Il sera mis à jour au fur et à mesure de l'évolution du cadre réglementaire.

© 2026 VIKL. Tous droits réservés.