Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'IA en Europe : ce que pourrait signifier la loi sur l'IA
Photo par Maico Amorim sur Unsplash
La loi sur l’IA est encore à l’état de projet, mais les investisseurs et les entrepreneurs en affaires dans l’Union européenne sont déjà nerveux quant aux résultats possibles.
Empêchera-t-elle l’Union européenne d’être un concurrent précieux dans l’espace mondial ?
Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.
Loi sur l’IA et évaluation des risques
La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories de risques, mais avant cela, elle limite la définition de l’intelligence artificielle à inclure uniquement les systèmes basés sur l’apprentissage automatique et la logique.
Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à comprendre pourquoi l’UE souhaite catégoriser le risque.
Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques relevant de la catégorie du risque inacceptable sont considérées comme interdites.
Ce type de pratiques inclut :
Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des pratiques « à haut risque ».
Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes ( et cela pourrait être dangereux pour la fintech ). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises pour éviter les risques pour les personnes et pour être aussi transparent que possible.
Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient aborder.
La loi semble trop générique
L’un des aspects qui inquiètent le plus les entrepreneurs et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.
Par exemple, les entreprises qui produisent et utilisent des systèmes basés sur l’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’utilisation à haut risque.
Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.
Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en fait, l’Europe ne possède pas de grandes entreprises d’IA comme aux États-Unis, puisque l’environnement de l’IA en Europe est principalement créé par des PME et des startups.
Selon une enquête menée par appliedAI, une grande majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de « à haut risque », précisément à cause de la complexité impliquée dans cette classification.
ChatGPT a changé les plans de l’UE
Les régulateurs de l’UE auraient dû clôturer le document le 19 avril, mais la discussion sur les différentes définitions des systèmes basés sur l’IA et leurs cas d’utilisation a retardé la livraison du projet final.
De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.
Le point qui a principalement causé des retards est la différenciation entre modèles de fondation et IA à usage général.
Un exemple de modèles de fondation en IA est ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer tout type de sortie.
L’IA à usage général inclut ces systèmes qui peuvent être adaptés à différents cas d’utilisation et secteurs.
Les régulateurs de l’UE veulent réglementer strictement les modèles de fondation, car ils pourraient poser plus de risques et affecter négativement la vie des gens.
Comment les États-Unis et la Chine réglementent l’IA
Si l’on regarde comment les régulateurs de l’UE traitent l’IA, quelque chose ressort : il semble que les régulateurs soient moins disposés à coopérer.
Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un cadre réglementaire potentiel.
En Chine, le gouvernement réglemente l’IA et la collecte de données depuis des années, et sa principale préoccupation reste la stabilité sociale.
Jusqu’à présent, le pays qui semble bien positionné en matière de réglementation de l’IA est le Royaume-Uni, qui a préféré une approche « légère » — mais il n’est pas secret que le Royaume-Uni souhaite devenir un leader dans l’adoption de l’IA et de la fintech.
Fintech et la loi sur l’IA
En ce qui concerne les entreprises et startups fournissant des services financiers, la situation est encore plus compliquée.
En effet, si la loi reste dans sa version actuelle, les fintechs devront non seulement se conformer aux réglementations financières en vigueur, mais aussi à ce nouveau cadre réglementaire.
Le fait que l’évaluation de la solvabilité puisse être considérée comme un cas d’utilisation à haut risque n’est qu’un exemple du fardeau que les fintechs devront porter, ce qui pourrait les empêcher d’être aussi flexibles qu’elles l’ont été jusqu’à présent, pour attirer des investissements et rester compétitives.
Conclusion
Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème ne réside pas dans la réglementation, mais dans une mauvaise réglementation.
Être trop générique pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services basés sur l’IA.
Si les investisseurs de l’UE s’inquiètent des risques potentiels liés à une étiquette indiquant qu’une startup ou une entreprise appartient à la catégorie du « haut risque », l’environnement de l’IA dans l’Union européenne pourrait en pâtir, tandis que les États-Unis recherchent des commentaires publics pour améliorer leur technologie et que la Chine a déjà une opinion claire sur la façon de réglementer l’intelligence artificielle.
Selon Robin Röhm, cofondateur d’Apheris, l’un des scénarios possibles est que les startups migrent vers les États-Unis — un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait remporter la course à l’IA.
Si vous souhaitez en savoir plus sur la fintech et découvrir des actualités, événements et opinions dans ce domaine, abonnez-vous à la newsletter FTW !