L'actualité & Data du capital-investissement : transactions, LBO, M&A, Venture, Corporate Finance et Private Equity - Leader en France

06/11/2025
M&A Corporate
Menissez grignote un distributeur
06/11/2025
Capital développement
Centrotherm alimenté par un fonds tricolore
06/11/2025
M&A Corporate
Zama acquiert une jeune pousse du web 3
06/11/2025
Dette
AddGuests invite un fonds de dette
06/11/2025
International
Le discours d'Eloquant séduit un canadien
06/11/2025
LBO
FCDE dépasse son objectif pour son 3ème millésime
06/11/2025
LBO
TSG fait le plein de financement
06/11/2025
Capital innovation
NextProtein remplit sa ruche d'actionnaires en série B
06/11/2025
Nominations
Darrois promeut
06/11/2025
Capital développement
Les Ciriers de Provence fondent pour un FO
06/11/2025
M&A Corporate
N-CyP sous la protection d'un industriel coté
06/11/2025
Build-up
Virtualia monte en compétences en Île-de-France
06/11/2025
LBO
Skyepharma encapsule un MBI
06/11/2025
Nominations
Deux mouvements chez Techlife Capital
06/11/2025
Nominations
Ashurst mise sur son restructuring
CANVIEW

IA : des usages à encadrer Accès libre

L'arrivée de l'intelligence artificielle à vitesse grand V oblige les acteurs du corporate finance à renforcer leur équipement en cyber-sécurité, mais aussi à considérer attentivement le cadre législatif.

| 436 mots

Alors que certaines technologies permettent aujourd’hui d’enregistrer ou traduire des conversations et de retranscrire un mémo d’investissement, des précautions d’usage s’imposent. La plupart des fonds et conseils ont dû redoubler d’efforts face au caractère sensible de la donnée désormais manipulée en masse par les outils d’IA auxquels ils ont recours.
« Quand on développe sa propre suite d’outils, il est important d’être particulièrement bien équipé en termes de cybersécurité », pose Jérémy Foucray, CTO de Cambon, qui a fait le choix de s’appuyer sur d’Okta et d’héberger ses données chez MangoDB et AWS. Lorsque la donnée analysée est issue de pitches ou de notes d’investissement, Alexis Deudon, CDO de Raise, préconise à ses équipes de ne pas utiliser ChatGPT, mais plutôt BingChat, une solution de Microsoft qu’il juge plus sûre. « L’interrogation de documents par le langage naturel pose à la fois des questions de sécurité (l’accès à la donnée est souvent contraint par des NDAs), mais aussi de scalabilité : ChatGPT et ses alternatives ne gardent en mémoire qu’un contexte assez limité, l’équivalent de quelques pages », complète le responsable, qui se fait accompagner, par ailleurs, par Qontrol, un DPO (délégué à la protection des données) externalisé à temps partiel.

Au-delà des éventuelles fuites de la data manipulée, c’est la nature même de cette dernière qui est parfois remise en cause. « À mon sens, l’un des gros travers de l’IA générative pourrait être l’opacité de l’origine de ses sources et un risque de manque
de fiabilité », exprime Aurélie Klein, responsable innovation de Fidal.

Une gestion des risques intégrée à la loi

Autant de problématiques potentielles qui, couplées à l’essor exponentiel de l’IA, ont amené le régulateur à prendre ses dispositions. En a découlé, cette année, l’ « AI Act », une proposition législative de l’Union européenne. « Ce règlement européen est l’un des premiers à intégrer une gestion de risques pour les entreprises. Par conséquent, les règles appliquées aux solutions d’IA et aux utilisateurs varient selon l’atteinte portée à la vie privée des individus », exprime Aurélie Klein.

Lire la suite sur CFNEWS Magazine - accès libre

CFNEWS propose désormais une API REST. Intégrez l'ensemble de nos articles et nos données dans votre CRM, MS Excel, Zapier ou votre SI interne. Pour plus d'informations, contactez abo@cfnews.net et/ou visitez API.CFNEWS.NET