Deciphering the EU AI Act—A Guide for Startups: Part 1

November 18, 2024
Deciphering the EU AI Act—A Guide for Startups: Part 1

Recent Articles

December 20, 2024
Le projet de loi sur la propriété des actifs numériques, présenté par le gouvernement britannique le 11 septembre 2024, marque une avancée décisive dans l’adaptation du cadre juridique aux enjeux de la finance numérique. À l’heure où le Bitcoin s’apprête à franchir le cap symbolique des 100 000 dollars et où la capitalisation mondiale des cryptomonnaies dépasse les 3 300 milliards de dollars, ce texte apporte enfin la clarté légale que les acteurs économiques attendaient au Royaume-Uni. Désormais, les cryptomonnaies — avec en tête le Bitcoin — et les jetons non fongibles (NFT) sont officiellement considérés comme des biens meubles soumis au droit anglais et gallois. Cette évolution offre aux institutions financières, aux investisseurs et aux jeunes pousses du Web3 une assise juridique solide : droits de propriété, recours en cas de vol ou de fraude, et mécanismes efficaces pour régler les litiges internes. En somme, il s’agit d’un véritable tremplin pour consolider la confiance et attirer de nouveaux capitaux. Le choix de ce moment n’a rien d’anodin. Dans le contexte du Brexit, le Royaume-Uni s’efforce de réaffirmer sa place de leader financier mondial. Bien que la séparation d’avec l’Union européenne ait engendré des incertitudes, ce projet de loi témoigne d’une volonté délibérée d’attirer capitaux, talents et entreprises issues du secteur numérique. Il ne s’agit pas seulement d’un ajustement réglementaire, mais d’un message fort : Londres entend demeurer un pôle d’innovation et de stabilité dans la finance internationale. Ce positionnement s’inscrit plus largement dans un mouvement de modernisation juridique. L’Electronic Trade Documents Act, entré en vigueur le 20 septembre 2023, en est un autre exemple. Sans lien direct avec la réforme en matière de propriété numérique, ce texte facilite la dématérialisation des documents commerciaux, contribuant à la fluidité et à la sécurisation du commerce international. Ensemble, ces initiatives confortent l’image d’un Royaume-Uni résolument tourné vers les enjeux technologiques de demain. À l’échelle internationale, la réglementation des actifs numériques reste un sujet de débat et de fragmentation. Les États-Unis, pourtant souvent en pointe, peinent à dégager une approche cohérente, comme l’illustrent les procédures menées par la SEC contre des géants tels que Ripple ou Coinbase. Cette incertitude nourrit la méfiance de certains acteurs. Le Royaume-Uni, en revanche, offre un environnement législatif clair, gage de stabilité pour les entreprises et les investisseurs. Dans ce contexte, la place londonienne se présente comme un pôle d’attraction majeur pour les acteurs de la blockchain et de la fintech en quête de repères législatifs fiables. Les startups du Web3 et les entrepreneurs du secteur disposent désormais d’un cadre juridique propice à l’innovation et à la croissance. Les professionnels du droit et de la finance, de leur côté, bénéficient d’un référentiel solide pour accompagner efficacement leurs clients. Au final, cette démarche cohérente et proactive devrait inciter nombre d’acteurs internationaux à considérer le Royaume-Uni comme un partenaire de choix pour l’avenir de la finance numérique.
December 20, 2024
(Loi n° 2023-835 du 23 octobre 2023 visant à accélérer la production d’équipements industriels nécessaires à la décarbonation de l’économie et à améliorer l’attractivité des sites industriels) Alors que le changement climatique demeure un enjeu mondial pressant, les gouvernements s’efforcent de soutenir l’émergence de technologies plus respectueuses de l’environnement. Dans cette optique, la France a promulgué, le 23 octobre 2023, la loi relative à l’industrie verte, marquant ainsi une avancée significative. Ce texte législatif global vise à réduire les émissions des industries existantes et à attirer de nouveaux investissements dans les technologies bas carbone. L’objectif est de positionner la France comme un pôle industriel de premier plan dans le domaine de la transition écologique, accélérant la transformation de son appareil productif. 

Navigating Risk Classifications and Requirements

The EU Artificial Intelligence Act (AI Act) officially entered into force on 1 August 2024 and is the world’s first holistic legal framework dedicated to artificial intelligence. It will progressively implement new rules, with key provisions becoming applicable from 2025 onward. The Act aims to ensure AI's safe and responsible development within the European Union, fostering innovation while ensuring trust and transparency. For tech startups, this legislation represents both a challenge and an opportunity, as adapting to its regulatory requirements will be essential for compliance and building long-term competitive advantages in the evolving AI landscape.


Startups need to strike a balance between innovation and responsibility. The AI Act will play a crucial part in helping them achieve this by providing an exhaustive framework with operational guidelines and standards for ethical AI development. The provisions of the Act dictate the manner and extent to which oversight and control are required, so startup founders must understand what it involves to introduce an AI product safely into the market.



The EU AI Act introduces four types of AI Systems, each classified by their risk level: unacceptable (prohibited AI practices), high (high-risk AI systems), limited (AI system which is to be expected to interact with natural persons), and minimal or no risk (not in the scope of the AI Act). Understanding these risk classifications is crucial for tech startups, as it guides how they must develop, deploy, and monitor their AI solutions. This knowledge is essential for ensuring compliance and minimizing operational risks.

High-Risk AI Systems and Mandatory Requirements

Given their potential to affect fundamental rights and safety, high-risk AI systems are subject to strict regulation to uphold the highest standards for individual and societal well-being. Medical diagnostics, autonomous vehicles, HR technology, and related field startups must meet these compliance requirements to survive the competition and keep their activities legal.


A key requirement for these systems is comprehensive risk management frameworks. Startups must build processes that recognize, evaluate, and mitigate risks throughout the lifecycle of their AI projects. They should also effectively monitor such AI systems and develop one that proactively addresses issues. This can start with adopting adaptable risk assessment methods that evolve alongside technology.


Startups should also consider data quality and implement safeguards to avoid bias. This follows the EU AI Act guidelines, emphasizing training with unbiased, representative datasets for building AI models. Biased data will produce inequitable results in high-stakes areas like health care and job recruitment. This means startups should monitor the data and have a prevention system that rectifies bias.


To stay compliant, startups are required to be more transparent and explainable. They have to ensure transparency in AI processes and practice specific decision-making methodologies. Their transparency efforts also include being clear on any limitations of their AI system. This commitment to transparency not only creates trust with the user, but also makes everyone involved accountable for their actions.


Even with all the other requirements, the AI Act still mandates startups to establish robust mechanisms for human oversight. Implementing frameworks that allow humans to participate when relevant in critical decision-making is imperative. This human intervention ensures that technology does not function in isolation, thereby preventing or mitigating adverse consequences as they arise.

The Urgency of Compliance

More countries have seen the importance of ethical AI and are consequently posed to ensure that startups abide by the EU AI Act. Given the interest AI systems are attracting now, institutions in compliance with the Act will readily be able to capitalize on any associated strategic opportunities. This urgency of compliance should motivate startups to act proactively and ensure they are not left behind in the evolving AI landscape. 


Compliance with the EU AI Act is not just a legal requirement, but also a strategic move for startups. It can help them save on regulatory fines, protect their brand image, and build customer trust. In today's world, consumers and investors value transparent, trustworthy, and secure solutions. Being one of the first to meet the AI Act requirements can demonstrate a startup's forward-thinking approach and help reduce risk concerns.


Startups able to establish a contextual reading of the EU AI Act will be able to continue innovating safely and sustainably. This would assure them that they are contributing to creating a secure and ethical AI ecosystem. In addition to the legal side, compliance builds a solid basis for success and growth.

Deciphering the EU AI Act
November 20, 2024
As mentioned in Part 1, the EU AI Act's requirements are proactive, which can be hard to satisfy for a startup. It can be challenging for many early-stage tech companies to read over these regulations and begin to navigate their application.

Share this article

Share by: