“Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.
Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull’etica: è nata così, come operazione di cattura culturale, con l’obiettivo di rendere plausibile un regime di mera autoregolazione, l’«etica dell’intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l’autonomia, di un megafono; è «un’esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.
La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali- il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.
Negli ultimi anni, l’opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell’«etica dell’intelligenza artificiale», che trasforma l’etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l’intera filosofia morale.
Al dissolversi della narrazione sull’etica dell’intelligenza artificiale, compare il convitato di pietra ch’essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l’urgenza che ad intervenire, in modo drastico, sia il diritto. L’adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell’assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».
A chi, in nome dell’inarrestabilità dell’innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale”.
Abstract. “La relazione è finalizzata a discutere il problema della concentrazione di potere di controllo ed elaborazione dei dati nelle mani di grandi imprese commerciali (big tech) che forniscono ai produttori agricoli servizi di agricoltura di precisione e smart farming. Il problema della concentrazione di potere di controllo ed elaborazione dei dati è già stato analizzato in chiave interdisciplinare in molti altri settori della c.d. era dei dati: ad es., nel settore della ricerca scientifica dove si delinea una disparità di potere tra imprese di analisi dei dati e istituzioni accademico-scientifiche (università e centri di ricerca).
La relazione è divisa in tre parti.
Nella prima parte si riassume il dibattito sul capitalismo dei monopoli intellettuali e della sorveglianza. Tali monopoli traggono la loro forza dalla proprietà intellettuale e dalla pseudo-proprietà intellettuale (forme anomale di esclusiva che si basano, ad esempio, su contratto e misure tecnologiche di protezione).
Nella seconda parte si descrive la peculiarità delle dinamiche di potere nel settore agricolo con riferimento ad agricoltura di precisione e smart farming. La normativa europea in materia di dati sembra essere insufficiente a risolvere il problema della disparità di potere, in quanto non scioglie alcuni nodi di politica del diritto che attengono al rapporto tra settore pubblico (stato) e settore privato (imprese) e riguardano la regolazione della proprietà intellettuale e della pseudo-proprietà intellettuale.
Nella terza parte, muovendo da un’analogia con il settore della ricerca scientifica, si propongono alcune raccomandazioni di politica del diritto su infrastrutture tecnologiche e regolazione della proprietà intellettuale”.
Abstract: La controversia oggetto di Cass. Sez. I civile ord. 30 dicembre 2022 n. 38165 riguarda una campagna pubblicitaria di un’impresa produttrice di acque minerali. Lo spot di un’acqua minerale vede come protagonista una versione umoristica del personaggio di Zorro creato da Johnston McCulley nel 1919, ma a sua volta presumibilmente ispirato a precedenti figure letterarie (come Robin Hood e la Primula Rossa) nonché, secondo alcune ipotesi, a Joaquin Murrieta, un fuorilegge californiano vissuto nell’800. L’impresa titolare del copyright sul personaggio Zorro fa causa all’impresa produttrice di acqua minerale per plagio-contraffazione. Il caso offre alla Cassazione l’occasione per riformulare il principio giuridico di tendenziale prevalenza della libertà di parodia sul diritto d’autore nei termini utilizzati dalla Corte di giustizia dell’Unione Europea. La formula (magica) è quella del «giusto equilibrio tra diritti fondamentali». Nel lessico della Carta di Nizza si tratta del bilanciamento tra proprietà intellettuale (art. 17.2) e libertà di espressione e informazione (art. 11).
“Il Gruppo LawTech della Facoltà di Giurisprudenza organizza una serie di seminari su temi connessi al rapporto tra diritto e tecnologia nell’ambito dei corsi di Diritto d’autore e arte, Diritto dell’era digitale e di Diritto comparato della proprietà intellettuale. Docenti e ricercatori italiani e stranieri presenteranno alcuni dei loro ultimi studi con l’obiettivo di suscitare un dibattito su alcuni degli attuali problemi riguardanti la regolazione della tecnologia”.
“La presentazione ha lo scopo di offrire uno sguardo sul dibattito attinente al potere che le grandi piattaforme del capitalismo digitale esercitano su scuola e università. Il diritto alla protezione dei dati personali costituisce uno degli strumenti giuridici volti a preservare l’autonomia della scuola e dell’università nonché la libertà di pensiero di studenti, docenti e ricercatori, ma non è uno strumento sufficiente. Senza interventi organici su più normative – ad es. sul piano della proprietà intellettuale -, senza investimenti in infrastrutture pubbliche basate su standard aperti, senza una solida formazione degli studenti e dei docenti nel campo della cittadinanza digitale, il potere delle grandi piattaforme commerciali è destinato ad aumentare”.
This paper aims to outline some issues concerning the interaction, in the European Union law, between data policy, university regulation, open science, intellectual property and infrastructure policy. On the one hand, such issues primarily regard intellectual property: exclusive rights deriving from copyright and related rights, patent, trademarks, trade secrets. On the other hand, they also concern forms of exclusive control on data that are not strictly related to intellectual property, but enhanced by the control on technology and infrastructure. This exclusive control can accompany or be independent from the protection of intellectual property conferred by law.
To make science open and to limit the market power of intellectual monopolies and oligopolies, restricting and reshaping intellectual property rights on data is not enough. It is also necessary to create or to revive public infrastructures and to implement open standards for texts, data and code. An example of public infrastructure for university is the Italian consortium GARR, which during the Covid-19 pandemic contributed to anchor the local debate about academic and teaching freedom to an actual and viable alternative, protecting independent and public knowledge not just de iure but de facto as well”.
Abstract: “Mentre gran parte del dibattito sul rapporto tra diritto umano alla scienza e alla ricerca, proprietà intellettuale e diritto d’autore si focalizza sulle eccezioni e limitazioni ai diritti di esclusiva (libere utilizzazioni) e sui diritti degli utenti, questo scritto sostiene, sulla scorta di precedenti ricerche, che occorre guardare anche ad altri dispositivi giuridici. Tra questi dispositivi spicca l’attribuzione in capo all’autore di un diritto di apertura dei testi scientifici (c.d. “secondary publication right”) a difesa dell’autonomia e della libertà accademiche, sempre più a rischio. Tale diritto non è un’eccezione o una limitazione del diritto di esclusiva né un diritto dell’utente ma un vero e proprio diritto morale (ed economico) dell’autore di aprire i testi scientifici. Esso è filosoficamente fondato sulla visione kantiana del diritto d’autore (il diritto d’autore non è una proprietà ma un diritto morale a protezione del discorso tra autore e pubblico), sull’uso pubblico della ragione e sulla norma mertoniana che prescrive la messa in comune della conoscenza scientifica. Il diritto di aprire i testi scientifici è una proiezione del diritto umano alla scienza (aperta)”.
Annuncio seminario patrocinato da AISA: “Il centro interdipartimentale DETECT dell’università di Pisa organizza, col patrocinio dell’AISA, un lunch seminar in presenza e on-line dal titolo: L’iniziativa europea per la riforma del sistema di valutazione della ricerca: l’Agreement on Reforming Research Assessment. Il seminario sarà tenuto da Francesca Di Donato, che ha contribuito alla stesura dell’accordo. Chi è interessato a partecipare, in presenza o a distanza, troverà tutte le informazioni necessarie qui“.
Un post sul sito di AISA di Paola Galimberti sulla necessità di sapere quanto si spende per gli Article Proccessing Charge (APC) chiesti dagli editori per l’Open Access a pagamento.
EOSC ha recentemente pubblicato nuovi studi in materia di Open Science. Di seguito i dettagli.
Commissione europea, Direzione generale della Ricerca e dell’innovazione, Opinion paper on monitoring open science, Ufficio delle pubblicazioni dell’Unione europea, 2022, https://data.europa.eu/doi/10.2777/382490
Commissione europea, Direzione generale della Ricerca e dell’innovazione, Opinion paper on EOSC FAIR data literacy, Ufficio delle pubblicazioni dell’Unione europea, 2022, https://data.europa.eu/doi/10.2777/716842
Commissione europea, Direzione generale della Ricerca e dell’innovazione, Opinion paper on EOSC and commercial partners, Ufficio delle pubblicazioni dell’Unione europea, 2022, https://data.europa.eu/doi/10.2777/04436
Commissione europea, Direzione generale della Ricerca e dell’innovazione, Opinion paper on FAIR data sovereignty in EOSC, Ufficio delle pubblicazioni dell’Unione europea, 2022, https://data.europa.eu/doi/10.2777/32361
Commissione europea, Direzione generale della Ricerca e dell’innovazione, EOSC, the transverse European data space for science, research and innovation : statement, Ufficio delle pubblicazioni dell’Unione europea, 2022, https://data.europa.eu/doi/10.2777/140927
Abstract. Oggi il carattere democratico della scienza è minacciato dalla valutazione autoritaria nonché dalla privatizzazione della conoscenza. Non è solo una minaccia per l’università ma per la tenuta stessa della democrazia. Due esempi (pubblicazioni scientifiche e brevetti universitari in ambito biomedico) possono forse rendere l’idea di cosa significhi valutazione autoritaria e privatizzazione della conoscenza nell’università italiana.
“Dovrebbe tuttavia destare stupore che il bando PRIN PNRR 2022 del 14 settembre 2022 richieda dati bibliometrici – obbligatori per fisica, ingegneria e scienze biologiche, e solo se disponibili per scienze umane e sociali – a chi presenta un progetto di ricerca candidandosi come principal investigator. […]
A un osservatore esterno i decreti e gli acronimi possono apparire vacui e tediosi esoterismi burocratici: ma in questa vacuità si cela una valutazione di stato ancor meno scientifica e ancora più sottomessa alla politica, specialmente entro un’università impoverita di denaro e di spirito che tende ad attribuire potere e prestigio a chi, ad arbitrio del principe, ottiene fondi per i propri progetti di ricerca. Il ‘governo dei migliori’ si è baloccato irresponsabilmente con la bibliometria. Governi peggiori potranno seguire la via regolamentare che ha predisposto e fare di peggio”.