Deciphering the EU AI Act—A Guide for Startups: Part 2

November 20, 2024
Deciphering the EU AI Act—A Guide for Startups: Part 2

Recent Articles

December 20, 2024
Le projet de loi sur la propriété des actifs numériques, présenté par le gouvernement britannique le 11 septembre 2024, marque une avancée décisive dans l’adaptation du cadre juridique aux enjeux de la finance numérique. À l’heure où le Bitcoin s’apprête à franchir le cap symbolique des 100 000 dollars et où la capitalisation mondiale des cryptomonnaies dépasse les 3 300 milliards de dollars, ce texte apporte enfin la clarté légale que les acteurs économiques attendaient au Royaume-Uni. Désormais, les cryptomonnaies — avec en tête le Bitcoin — et les jetons non fongibles (NFT) sont officiellement considérés comme des biens meubles soumis au droit anglais et gallois. Cette évolution offre aux institutions financières, aux investisseurs et aux jeunes pousses du Web3 une assise juridique solide : droits de propriété, recours en cas de vol ou de fraude, et mécanismes efficaces pour régler les litiges internes. En somme, il s’agit d’un véritable tremplin pour consolider la confiance et attirer de nouveaux capitaux. Le choix de ce moment n’a rien d’anodin. Dans le contexte du Brexit, le Royaume-Uni s’efforce de réaffirmer sa place de leader financier mondial. Bien que la séparation d’avec l’Union européenne ait engendré des incertitudes, ce projet de loi témoigne d’une volonté délibérée d’attirer capitaux, talents et entreprises issues du secteur numérique. Il ne s’agit pas seulement d’un ajustement réglementaire, mais d’un message fort : Londres entend demeurer un pôle d’innovation et de stabilité dans la finance internationale. Ce positionnement s’inscrit plus largement dans un mouvement de modernisation juridique. L’Electronic Trade Documents Act, entré en vigueur le 20 septembre 2023, en est un autre exemple. Sans lien direct avec la réforme en matière de propriété numérique, ce texte facilite la dématérialisation des documents commerciaux, contribuant à la fluidité et à la sécurisation du commerce international. Ensemble, ces initiatives confortent l’image d’un Royaume-Uni résolument tourné vers les enjeux technologiques de demain. À l’échelle internationale, la réglementation des actifs numériques reste un sujet de débat et de fragmentation. Les États-Unis, pourtant souvent en pointe, peinent à dégager une approche cohérente, comme l’illustrent les procédures menées par la SEC contre des géants tels que Ripple ou Coinbase. Cette incertitude nourrit la méfiance de certains acteurs. Le Royaume-Uni, en revanche, offre un environnement législatif clair, gage de stabilité pour les entreprises et les investisseurs. Dans ce contexte, la place londonienne se présente comme un pôle d’attraction majeur pour les acteurs de la blockchain et de la fintech en quête de repères législatifs fiables. Les startups du Web3 et les entrepreneurs du secteur disposent désormais d’un cadre juridique propice à l’innovation et à la croissance. Les professionnels du droit et de la finance, de leur côté, bénéficient d’un référentiel solide pour accompagner efficacement leurs clients. Au final, cette démarche cohérente et proactive devrait inciter nombre d’acteurs internationaux à considérer le Royaume-Uni comme un partenaire de choix pour l’avenir de la finance numérique.
December 20, 2024
(Loi n° 2023-835 du 23 octobre 2023 visant à accélérer la production d’équipements industriels nécessaires à la décarbonation de l’économie et à améliorer l’attractivité des sites industriels) Alors que le changement climatique demeure un enjeu mondial pressant, les gouvernements s’efforcent de soutenir l’émergence de technologies plus respectueuses de l’environnement. Dans cette optique, la France a promulgué, le 23 octobre 2023, la loi relative à l’industrie verte, marquant ainsi une avancée significative. Ce texte législatif global vise à réduire les émissions des industries existantes et à attirer de nouveaux investissements dans les technologies bas carbone. L’objectif est de positionner la France comme un pôle industriel de premier plan dans le domaine de la transition écologique, accélérant la transformation de son appareil productif. 

Navigating Compliance Challenges—Strategies for Startups

As mentioned in Part 1, the EU AI Act's requirements are proactive, which can be hard to satisfy for a startup. It can be challenging for many early-stage tech companies to read over these regulations and begin to navigate their application. Nevertheless, it is feasible to overcome potential compliance hurdles with the right strategy and turn them into a competitive edge.


As stated in Part 1, startups should consider data quality and how they would mitigate potential instances of bias. This is coherent with Article 10 of the Act, according to which high-risk AI systems shall use high-quality, unbiased data. This is hard for new-age startups that rely on several unstructured data sources. To address this challenge, the best solution always consisted of implementing advanced bias detection algorithms and developing auto data-cleaning processes. However, startups that need more funding to afford these processes should look at implementing data pipelines that include a regular check on the diversity and fairness of their data. They can also involve other stakeholders to ensure data stays relevant and representative. Startups will also need to pay for periodic third-party audits that validate the integrity of their data and demonstrate compliance with EU AI Act provisions.


Ensuring transparency and explainability could also be a challenge for startups. Advanced AI systems, such as deep learning algorithms, tend to operate as “black boxes,” making it difficult for humans to understand how they reach their decisions. Approaches such as Explainable AI (XAI) could make it easier for startups to track the workflows associated with complex AI systems. Another method of improving transparency and explainability is making the documentation user-friendly for all audiences. The documentation might consist of pictures in flowcharts or interpretability dashboards that simplify authoritarian principles inside AI models. Another way startups can handle this challenge is by working with data scientists to balance model accuracy and explainability.


Startups also need to develop robust documentation and records for compliance purposes. Under the Act, institutions must maintain detailed documentation of AI system development, data sources, and audit trails in decision-making processes. This is part of an effort to improve the introduction of traceability and accountability. Many startups lack sufficient funding or resources to manage detailed documents. One possible solution is to implement standardized documentation practices right from the start. Startups could employ version control systems to keep track of changes made to documents and records, leading to a clear audit trail. For any start-up with financial resources, compliance management software can be used instantly to ensure documentation is automated and records enforced consistently and accurately over time.


The EU AI Act requires human oversight and governance, but many institutions still don't have it in place. To ensure compliance, businesses are encouraged to formulate policies that clarify everyone's roles, build monitoring systems that keep updated in real-time, and train employees to intervene when needed. Startups should establish a governance groundwork for monitoring and managing AI. Ingraining these capabilities into the culture of a startup could help ensure that human oversight evolves to continue serving its purpose.


Finally, an environment that provides a component of accountability and compliance would help ensure attention to following guidelines for ethical behavior regarding AI systems. Startups should perceive compliance as a process that runs throughout the entire operation, not a one-time affair. This challenge can be managed from the very onset by implementing compliance efforts within the product development process. Startups might also focus on working with engineers, data scientists, and legal experts to establish an incorporated approach to achieve compliance with the ethical criteria for AI systems. Startups could reward efforts towards compliance for compliance by recognizing those employees and teams that best approach high standards of ethical responsibility with AI systems.


Despite the compliance challenges, executing some or all of the strategies noted above may assist startups in complying with the EU AI Act. Rather than force these challenges as setbacks, startups need to accept and take this opportunity to build trust among consumers, earn a positive brand reputation, and establish themselves as leaders who adopt the ethical way out of using AI systems.

Deciphering the EU AI Act
November 22, 2024
Companies not complying with the EU AI Act may face heavy fines like those listed in the General Data Protection Regulation (GDPR). The Act includes a penalty structure that encourages compliance.

Share this article

Share by: