par Khadidja BOUDIA, étudiante du Master 2 Droit des communications électroniques

L’Italie devient le premier état membre de l’Union européenne à se doter d’un loi nationale encadrant les usages de l’intelligence artificielle en complément du règlement européen dit “AI Act” (règlement UE 2024/1689). Le Parlement italien a adopté la loi n°1146-B sur l’intelligence artificielle, applicable depuis le 10 octobre 2025.
Elle consolide la gouvernance institutionnelle, encadre les usages les plus sensibles de l’IA et crée de nouvelles infractions pénales. Par cette approche, le législateur italien affirme sa volonté d’anticipation et de conciliation entre l’innovation technologique et la sécurité juridique, tout en veillant à la cohérence de son application avec le droit de l’Union européenne.
Contexte
L’adoption de cette loi intervient dans un contexte marqué par l’entrée en vigueur le 1er août 2024 du Règlement (UE) 2024/1689, dit AI Act, qui fixe un cadre juridique harmonisé selon le niveau de risque des systèmes d’IA et vise à stimuler l’innovation. Son entrée en vigueur échelonnée laisse une marge de manœuvre nationale aux États membres pour adapter ou renforcer certaines règles. La loi italienne ne se contente pas d’appliquer le règlement, mais crée des nouvelles obligations et vient confirmer que l’Europe entre dans une régulation à deux vitesses entre les états membres et l’Union européenne.
Les principaux apports de la loi italienne face aux défis imposés par l’IA
La loi affirme d’abord une approche humaniste de l’IA en plaçant l’humain au centre des processus de conception, de décision et de contrôle des systèmes d’IA. Elle vise à encadrer l’usage de l’IA en imposant des règles en matière de transparence, de responsabilité, de protection de la vie privée et du respect de la dignité humaine, dans des secteurs sensibles tels que le travail, la santé, l’administration publique, la justice et la sécurité.
Le volet pénal est renforcé traduisant la volonté du législateur de prévenir les dérives liées à l’utilisation de l’IA. Elle introduit des dispositions inédites avec la création d’une infraction pénale spécifique sanctionnant la création ou les diffusions illicites de deepfakes à des fins frauduleuses et diffamatoires. Les peines varient de 1 à 5 ans d’emprisonnement, en fonction de la gravité de l’infraction et de son contexte. Elle prévoit l’aggravation des peines pour les infractions commises grâce à l’IA telles que l’escroquerie, l’usurpation d’identité, l’atteinte à la vie privée ou encore la contrefaçon. Elle introduit également des nouvelles règles en matière de responsabilité civile et un encadrement de l’extraction et de traitement de données par l’IA, afin de garantir le respect du droit d’auteur, de la vie privée et du principe de minimisation des données. Ce dispositif vient compléter le cadre européen du RGPD en imposant aux acteurs économiques une obligation de transparence sur les sources et les finalités des données exploitées.
Concernant le droit d’auteur, les œuvres conçues avec l’aide de l’IA peuvent être protégées si elles résultent d’un travail intellectuel humain ; ainsi, les contrats devront préciser la part de la contribution humaine dans le processus créatif.
La loi italienne accorde une place centrale à la protection des mineurs face aux risques liés à l’IA en imposant aux concepteurs et fournisseurs de systèmes d’IA d’intégrer des mécanismes de sécurité adaptés à l’âge, tels que le contrôle parental, la limitation d’accès et la prévention des contenus inappropriés.
Pour garantir une mise en œuvre cohérente, la loi désigne deux autorités nationales compétentes : l’Agence pour l’Italie numérique (AgID) chargée de l’innovation et de la supervision des systèmes d’IA dans le secteur public et l’Agence nationale pour la cybersécurité (ACN) chargée d’exercer les fonctions d’Autorité nationale en matière de cybersécurité et de développer les capacités nationales afin de faire face aux incidents de sécurité informatique.
Le législateur italien consacre également une dimension économique et stratégique essentielle en soutenant l’innovation technologique, elle prévoit la création d’un fonds public de capital-risque d’un milliard d’euros pour soutenir les PME et grandes entreprises actives dans l’IA, la cybersécurité, les technologies quantiques et les télécommunications.
Respecter l’AI Act ne suffit plus, les entreprises doivent désormais se conformer également aux législations nationales ; ainsi, cette double obligation renforce la responsabilité des acteurs et encourage une utilisation éthique et sécurisée de l’IA.
Anticiper pour mieux réguler : La stratégie italienne
Cette anticipation s’explique par la volonté du gouvernement italien de se positionner en principal acteur dans la gouvernance européenne responsable et souveraine de l’IA, tout en adaptant les principes du droit de l’Union aux spécificités institutionnelles, économiques et culturelles nationales. La loi italienne représente une tentative ambitieuse d’équilibrer l’innovation technologique et la protection des droits fondamentaux en imposant un cadre juridique national.
Une voie qui pourrait inspirer les autres états membres à adopter des législations nationales ambitieuses et compatibles avec le cadre juridique européen, renforçant ainsi la cohérence et l’efficacité de la régulation de l’IA à l’échelle de l’Union.
Et la France ?
En France, la régulation de l’IA repose encore principalement sur l’AI Act et privilégie une approche sectorielle, car aucune loi nationale spécifique n’existe encore. À l’instar de l’Italie, la France pourrait envisager une législation pour compléter le cadre juridique européen, clarifier les obligations des entreprises et renforcer la protection des droits fondamentaux, tout en soutenant l’innovation technologique. Pour l’instant, elle préfère opter pour une mise en œuvre progressive mais alignée avec l’Union européenne.
La France devrait-elle se doter d’une législation nationale en complément de l’AI Act ?
Sources :