L’intelligence artificielle tire sa puissance de l’information dont on la nourrit. L’accès à des sources d’information, ou données, est un aspect essentiel du développement de nouvelles applications d’intelligence artificielle. Dans la plupart des cas, cet accès n’est toutefois pas libre et les développeurs doivent se poser certaines questions : à qui appartient cette information, qui peut y avoir accès et que peut-on en faire?
Ces questions ne visent pas à porter entrave à l’innovation; elles sont plutôt destinées à protéger le public de même que les créateurs qui mettent leur talent au service du développement de nouvelles technologies.
Le philosophe allemand Emmanuel Kant a proposé il y a plusieurs siècles trois grandes questions relatives à la connaissance humaine que nous pouvons à notre tour appliquer à l’IA pour soutenir notre réflexion.
1. Qu’est-ce que l’IA a le droit de savoir?
La valeur de l’information
Pour entraîner un système d’IA, il faut l’alimenter en amont avec de l’information pertinente.
Le défi consiste à trouver une information suffisante, adéquatement organisée, exempte d’erreurs et dans un format qu’il est possible de traiter.
C’est ce qui explique pourquoi le travail des analystes de données est si important et qu’il a une si grande valeur économique.
Propriété intellectuelle des données
Le droit d’auteur est la forme de propriété intellectuelle qui protège la compilation, l’organisation et la mise en forme de données. Pour qu’il y ait naissance d’un droit d’auteur, il ne suffit toutefois pas de simplement colliger de manière automatisée de l’information; des droits sont acquis lorsque la compilation est « créée » par l’exercice du talent et du jugement humain[1].
Des auteurs de compilation créent des jeux de données (datasets) et les rendent parfois disponibles sur Internet. Leur présence sur le Web ne veut toutefois pas dire que ces jeux de données peuvent être utilisés sans réserve. Puisqu’ils sont régis par des droits d’auteur, ils ne peuvent en effet être copiés que dans la mesure permise par les auteurs des compilations.
Par exemple, il est fréquent que des chercheurs universitaires mettent à la disposition du public des jeux de données, mais uniquement à des fins non commerciales. Le téléchargement de tels jeux de données est alors conditionnel à l’acceptation d’un contrat très restrictif quant à l’utilisation qui peut être faite de ces données.
Certaines entreprises privées telles que Google ou Reuters vendent des jeux de données ou tentent de construire de grands jeux de données aux fins d’alimenter les solutions qu’elles développent. Dans ce cas également, des contrats définissent l’usage que l’IA peut faire de ces données.
Renseignements personnels
Bien que certaines données compilées soient de nature technique, d’autres sont composées de renseignements personnels parfois très sensibles (comme des données médicales ou financières).
Cette information est donc soumise aux lois relatives à la protection des renseignements personnels, qui imposent d’importantes contraintes quant à leur communication à des tiers. À moins d’obtenir le consentement des personnes visées, ces renseignements ne peuvent généralement pas être utilisés pour entraîner un système d’intelligence artificielle autrement qu’à des fins ayant trait à l’objet de leur collecte. Tout consentement émis doit d’ailleurs être libre et éclairé, impliquant que les personnes ont une compréhension précise de l’utilisation qui sera faite des données recueillies.
Les développeurs d’applications d’IA doivent donc s’assurer de procéder avec précaution, en respectant le travail de ceux qui ont assemblé les jeux de données et, le cas échéant, la vie privée des personnes dont les renseignements ont servi à bâtir ces jeux de données.
2. Qu’est-ce que l’IA doit faire?
Que doit faire l’intelligence artificielle de l’information utilisée pour son développement et son fonctionnement?
Discrimination et enjeux éthiques
L’intelligence artificielle ne devrait jamais être utilisée à des fins qui vont à l’encontre des droits et libertés de la personne et, notamment, qui entraînent une forme de discrimination. Ce problème peut surgir en fonction de certains jeux de données utilisés, lesquels peuvent, même à l’insu de ceux qui les ont compilés, reproduire certains préjugés de notre société.
Confidentialité et préjudice à autrui
Il va sans dire que l’intelligence artificielle ne doit causer aucun préjudice à autrui, par exemple en révélant à des tiers des renseignements personnels de manière illégale. Si cette situation venait à se produire, le gardien d’un système d’intelligence artificielle pourrait en être tenu responsable.
Méthodes à adopter
Bien que plusieurs types de réseaux de neurones puissent fonctionner de manière relativement opaque, on voit émerger des méthodes qui permettent de mieux comprendre leur fonctionnement interne[2]. Les autorités européennes ont commencé à adopter des lois et règlements visant à favoriser une certaine transparence algorithmique. Il est possible que d’autres pays emboîtent le pas.
Les balises de fonctionnement doivent varier selon l’utilisation projetée de l’application d’intelligence artificielle. Si, dans certains cas, l’objectif de l’application d’IA est simplement d’améliorer l’efficacité des processus, d’autres situations requièrent des balises plus claires, notamment lorsque la vie privée est un enjeu majeur.
3. Que pouvons-nous espérer de l'IA?
Nous pouvons espérer que l’intelligence artificielle permettra d’obtenir des diagnostics médicaux plus justes, d’avoir un meilleur accès à la justice, d’optimiser l’utilisation des ressources des entreprises manufacturières, d’économiser de l’énergie et d’apporter d’autres bienfaits à la société.
Par ailleurs, nous devons aussi espérer que cela se fera en tout respect du travail des auteurs des jeux de données utilisés pour entraîner ces systèmes et de la vie privée des personnes ayant contribué à cette information. Ce n’est qu’à cette condition que ces avancées technologiques constitueront de réels progrès.
À propos de l’auteur
Eric Lavallée est avocat et agent de marques de commerce au sein du groupe Droit des affaires et dirige le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA).
Sa pratique du droit dans les domaines de la propriété intellectuelle (brevets, marques de commerce et protection des logiciels) a mené Me Lavallée à s’intéresser particulièrement aux développements de l’intelligence artificielle au cours des dernières années.
À titre d’avocat, Me Lavallée est régulièrement appelé à accompagner des entreprises de toutes tailles, de l'entreprise en démarrage à la grande entreprise, dans la rédaction de contrats de licences et ententes commerciales en haute technologie ainsi que dans la mise en place de stratégies de protection et de vérification diligente de la propriété intellectuelle.
Il a également développé une expertise pointue dans l’analyse de l’impact juridique de l’application et de l’implantation de l’intelligence artificielle dans des secteurs connexes à sa pratique du droit, notamment en ce qui concerne la protection des renseignements personnels, la régie d’entreprise et le droit des affaires en général.
[1] Voir notamment Geophysical Service Incorporated v Encana Corporation, 2016 ABQB 230.
[2] Voir notamment Graves, Alex, Greg Wayne, and Ivo Danihelka. Neural Turing Machines. arXiv:1410.5401, [cs.NE], 2014.
Les opinions exprimées dans ce billet sont celles de leur auteur et ne représentent pas nécessairement celles de la Chambre de commerce du Montréal métropolitain. En conséquence, la Chambre ne peut en aucun cas être tenue responsable du contenu publié.