WitnessAI : Gardiens des données de votre IA d’entreprise

Accueil · Blog IA · Outils · WitnessAI : Gardiens des données de votre IA d’entreprise
Utilisateur préoccupé par la sécurité de son ordinateur.

Générer du contenu de manière automatique comporte ses risques. Imaginez une IA qui invente des données, montre des biais ou même produit des textes offensants ? Ce sont des problèmes réels dans la technologie de l’IA générative. Rick Caccia, PDG de WitnessAI, est convaincu qu’il est possible de rendre ces modèles plus sûrs. Selon Caccia, sécuriser les modèles d’IA n’est pas seulement un défi fascinant pour les chercheurs, mais une nécessité pour leur utilisation pratique.

Imaginez une voiture de sport avec un moteur puissant : elle ne sert pas à grand-chose sans de bons freins et une direction fiable. De même, contrôler et sécuriser l’IA est aussi crucial que la puissance même du modèle.

Dans le monde des affaires, il y a une demande croissante pour ces mesures de sécurité. Malgré l’enthousiasme pour le potentiel productif de l’IA générative, il existe de sérieuses préoccupations concernant ses limitations. Une étude d’IBM révèle que 51 % des PDG embauchent pour des rôles liés à l’IA générative, des rôles qui n’existaient pas jusqu’à récemment. Cependant, seulement 9 % des entreprises se sentent prêtes à gérer les menaces associées à cette technologie, y compris les questions de confidentialité et de propriété intellectuelle.

C’est là que WitnessAI entre en jeu. Sa plateforme intercepte l’activité entre les employés et les modèles d’IA générative personnalisés qu’ils utilisent. Il ne s’agit pas de modèles d’usage général comme GPT-4 d’OpenAI, mais plutôt de modèles spécifiques comme Llama 3 de Meta. WitnessAI applique des politiques et des mesures de sauvegarde pour atténuer les risques, garantissant que les employés puissent accéder aux données de l’entreprise de manière sécurisée et contrôlée.

Comment WitnessAI met en œuvre des mesures de sauvegarde efficaces

WitnessAI offre une solution innovante pour atténuer les risques associés à l’utilisation de modèles d’IA générative dans les entreprises. La plateforme de WitnessAI ne se contente pas d’intercepter l’activité entre les employés et les modèles d’IA personnalisés, elle applique également des politiques spécifiques de mitigation des risques. Ces politiques comprennent des règles qui empêchent les employés d’utiliser les outils alimentés par l’IA générative de manière inappropriée, comme poser des questions sur des rapports de gains non publiés ou copier des codes internes.

L’une des fonctionnalités phares de WitnessAI est la capacité de rédiger des informations sensibles et propriétaires des demandes envoyées aux modèles. De plus, elle implémente des techniques pour protéger les modèles contre les attaques qui pourraient les forcer à générer des réponses inappropriées. « Nous croyons que la meilleure façon d’aider les entreprises est de définir clairement le problème — par exemple, l’adoption sécurisée de l’IA — puis de vendre une solution qui répond à ce problème, » déclare Caccia.

WitnessAI veille également à ce que les organisations se conforment aux réglementations existantes et émergentes en matière de confidentialité et de sécurité des données. La plateforme permet aux responsables de la confidentialité de surveiller et de signaler l’activité et les risques associés à l’utilisation de l’IA générative. Bien que toutes les interactions passent par la plateforme de WitnessAI avant d’atteindre le modèle, l’entreprise assure que son design isolé et chiffré protège efficacement les données des clients.

« Notre design unique et isolé garantit que l’activité d’IA de chaque client est protégée et séparée, » explique Caccia. « Chaque client a une instance séparée de notre plateforme, chiffrée avec ses propres clés. Les données d’activité de l’IA sont isolées, et nous ne pouvons pas les voir. »

Bien que cela puisse calmer les préoccupations des clients en matière de confidentialité, il reste à voir comment les employés réagiront à la surveillance de leurs activités. Les enquêtes montrent que les gens n’apprécient généralement pas d’être surveillés au travail et croient que cela peut affecter négativement la morale de l’entreprise.

WitnessAI a obtenu un investissement significatif de 27,5 millions de dollars de Ballistic Ventures et GV, le bras de capital-risque de Google, ce qui reflète la confiance des investisseurs dans le potentiel de l’entreprise.

Avec ces fonds, WitnessAI prévoit d’étendre son équipe de 18 personnes à 40 d’ici la fin de l’année. Cette croissance sera cruciale pour affronter les concurrents, grands et petits, dans le marché naissant des solutions pour la conformité et la gouvernance des modèles d’IA. Parmi ces concurrents se trouvent des géants technologiques comme AWS, Google et Salesforce, ainsi que des startups comme CalypsoAI.

Caccia, PDG de WitnessAI, se montre optimiste quant à l’avenir de l’entreprise. « Nous avons construit notre plan pour aller bien jusqu’en 2026 même si nous n’avions pas de ventes, mais nous avons déjà presque 20 fois le nombre d’opportunités nécessaires pour atteindre nos objectifs de vente cette année, » déclare Caccia. Cette confiance dans le succès à long terme de WitnessAI repose sur son approche de l’habilitation sécurisée de l’IA, un domaine émergent qui est en constante évolution et expansion.

Avec l’adoption de l’IA générative en plein essor et la nécessité de garantir son utilisation sécurisée, WitnessAI semble bien positionnée pour devenir un leader dans ce domaine. L’entreprise continue de s’adapter et de développer de nouvelles fonctionnalités pour répondre aux demandes de ce marché en croissance.

 

DÉCOUVREZ EN PLUS SUR LE SUJET

Laissez le premier commentaire