L'actualité & Data du capital-investissement : transactions, LBO, M&A, Venture, Corporate Finance et Private Equity - Leader en France

24/04/2025
Build-up
Astek muscle ses activités de CRO
24/04/2025
Build-up
Transarc collecte un build-up
24/04/2025
Retournement
Show You se montre chez un niçois
24/04/2025
Nominations
Un expert du PE à la tête de Kearney
24/04/2025
Capital innovation
CustomsBridge passe les frais de douane
24/04/2025
Nominations
Vague de promotions chez Meanings
24/04/2025
Nominations
Cinquième associé chez Septentrion
24/04/2025
M&A Corporate
Doumer charpente son édifice
24/04/2025
International
Kersia s’élève dans la biosécurité animale
24/04/2025
International
Eolane compose avec un suisse
24/04/2025
Nominations
Un nouveau managing partner pour Ashurst
24/04/2025
Nominations
Freshfields coopte
24/04/2025
Capital innovation
Poppins se rééduque avec un fonds à impact
23/04/2025
M&A Corporate
Target First ciblé par un acteur de la communication pour PME
23/04/2025
M&A Corporate
Onestaff entame une mission chez un groupe provençal
CANVIEW

IA : des usages à encadrer Accès libre

L'arrivée de l'intelligence artificielle à vitesse grand V oblige les acteurs du corporate finance à renforcer leur équipement en cyber-sécurité, mais aussi à considérer attentivement le cadre législatif.

| 436 mots

Alors que certaines technologies permettent aujourd’hui d’enregistrer ou traduire des conversations et de retranscrire un mémo d’investissement, des précautions d’usage s’imposent. La plupart des fonds et conseils ont dû redoubler d’efforts face au caractère sensible de la donnée désormais manipulée en masse par les outils d’IA auxquels ils ont recours.
« Quand on développe sa propre suite d’outils, il est important d’être particulièrement bien équipé en termes de cybersécurité », pose Jérémy Foucray, CTO de Cambon, qui a fait le choix de s’appuyer sur d’Okta et d’héberger ses données chez MangoDB et AWS. Lorsque la donnée analysée est issue de pitches ou de notes d’investissement, Alexis Deudon, CDO de Raise, préconise à ses équipes de ne pas utiliser ChatGPT, mais plutôt BingChat, une solution de Microsoft qu’il juge plus sûre. « L’interrogation de documents par le langage naturel pose à la fois des questions de sécurité (l’accès à la donnée est souvent contraint par des NDAs), mais aussi de scalabilité : ChatGPT et ses alternatives ne gardent en mémoire qu’un contexte assez limité, l’équivalent de quelques pages », complète le responsable, qui se fait accompagner, par ailleurs, par Qontrol, un DPO (délégué à la protection des données) externalisé à temps partiel.

Au-delà des éventuelles fuites de la data manipulée, c’est la nature même de cette dernière qui est parfois remise en cause. « À mon sens, l’un des gros travers de l’IA générative pourrait être l’opacité de l’origine de ses sources et un risque de manque
de fiabilité », exprime Aurélie Klein, responsable innovation de Fidal.

Une gestion des risques intégrée à la loi

Autant de problématiques potentielles qui, couplées à l’essor exponentiel de l’IA, ont amené le régulateur à prendre ses dispositions. En a découlé, cette année, l’ « AI Act », une proposition législative de l’Union européenne. « Ce règlement européen est l’un des premiers à intégrer une gestion de risques pour les entreprises. Par conséquent, les règles appliquées aux solutions d’IA et aux utilisateurs varient selon l’atteinte portée à la vie privée des individus », exprime Aurélie Klein.

Lire la suite sur CFNEWS Magazine - accès libre

CFNEWS propose désormais une API REST. Accédez à l'ensemble de nos articles et nos données depuis votre CRM. Pour plus d'informations, contactez abo@cfnews.net et/ou visitez API.CFNEWS.NET