Il fattore umano, il principale componente dell’ecosistema digitale
Le dinamiche sociali legate alla tecnologia ci portano a riflettere sull’adeguatezza delle mentalità e delle nuove competenze di coloro che operano nella comunità digitale.
La transizione tecnologica che stiamo attraversando ci obbliga necessariamente a includere l’insieme completo di tutte le persone che vi interagiscono, così da “non lasciare indietro nessuno” 1.
Questa capacità di adattamento, che forgerà i prossimi leader come futuri agenti di cambiamento, deve considerare non solo gli strumenti di innovazione, ma anche l’analisi soggettiva ed etica e l’evoluzione storico-politica, per una migliore governance e per il riconoscimento di principi e garanzie nella nuova classificazione giuridica dei diritti umani, promotori dello sviluppo economico, del miglioramento della qualità di vita, dell’accesso all’istruzione, e della protezione dell’ambiente, affinché questo scenario sia interpretato come sinonimo di progresso sociale, pacifico e inclusivo.
Dichiarazione Universale dei Diritti Umani nell’era digitale: dal 1948 al 2024
Ricordiamo come nel 1948 furono riconosciuti universalmente questi diritti 2, insieme al Patto internazionale sui diritti civili e politici del 1966, limitando il potere dello Stato nei confronti degli individui e stabilendo un equilibrio tra istituzioni e cittadini. Un po’ più tardi, in conformità agli eventi storico-politici, emersero i diritti di seconda generazione, che fanno riferimento ai diritti che tutte le persone possiedono in egual misura (indipendentemente da razza, sesso, condizione sociale, religione, ecc.), come il diritto a una vita economica stabile, all’accesso all’istruzione gratuita, al lavoro, alla salute e alla protezione sociale.
I cosiddetti diritti di solidarietà costituiscono una terza generazione, che, in considerazione delle nuove condizioni globali, si batte per lo sviluppo sostenibile, la cura dell’ambiente, la preservazione del patrimonio culturale, la pace, la multiculturalità e l’autodeterminazione dei popoli.
Osserviamo dunque come il concetto universale dei diritti umani, dal 1948 a oggi, si sia progressivamente ampliato fino ad acquisire nuovi significati, soffermandoci sulla necessità di un’adeguata evoluzione in questa era di sviluppo di nuove forme di interazione umana con la tecnologia, in un mondo non solo fisico ma anche virtuale (cyberspazio).
Risulta quindi necessario riprendere e/o continuare quei processi giuridico-politici e le buone pratiche nelle politiche pubbliche globali, iniziati oltre 76 anni fa con la dichiarazione e il riconoscimento della dignità intrinseca e dei diritti uguali e inalienabili di tutti i membri della famiglia umana, affinché possiamo così aggiornare, rafforzare, proclamare e accogliere i nuovi diritti in funzione degli attuali eventi sociali 3.
Attualmente, i dataspace e gli strumenti basati su tecnologie avanzate, in particolare le intelligenze artificiali, acquisiscono un grande protagonismo e, sebbene si riscontrino vantaggi e benefici inequivocabili nell’IA, come il potenziamento della crescita economica e produttiva, una maggiore efficienza e rapidità in compiti complessi, la capacità di elaborazione dei dati, l’automazione delle attività umane ripetitive, lo sviluppo di nuovi prodotti tecnologici, miglioramenti nei processi aziendali, in medicina, nella transizione energetica, ecc., si iniziano anche a osservare delle criticità: come la disoccupazione e i cambiamenti nel mercato del lavoro, i pregiudizi algoritmici, la mancanza di sicurezza dei dati, le violazioni della privacy, il pericolo di sviluppo autonomo di tecnologie dannose, l’assenza di regolamentazioni e potenti lobby eco(economiche)-tecnologiche, che potrebbero rappresentare potenziali rischi e che, parallelamente, fanno emergere il grande interrogativo che, come giuristi, dobbiamo affrontare in questo momento: Se questa “modernità con IA” è sinonimo di progresso o se, in futuro, si trasformerà in una minaccia per l’umanità? Soggettività politiche e buone pratiche inclusive nell’IA.
Soggettività politiche e buone pratiche inclusive nell’IA
In questo contesto, la possibile dipendenza dai sistemi di IA, in particolare dall’IA generativa (come nel caso di ChatGPT: “Generative Pre-trained Transformer”, sviluppato da OpenAI), una rete neurale artificiale con apprendimento automatico, addestrata per elaborare una grande quantità di dati senza controllo, o i rischi legati alla manipolazione di immagini per crearne di false (deepfake), alla violazione della privacy e ad altri scopi malevoli come spionaggio, manipolazione dell’opinione pubblica e crimini informatici, combinati con la mancanza di regolamentazione, trasparenza e responsabilità, potrebbero risultare molto dannosi, perpetuando e amplificando pregiudizi e stereotipi già esistenti in quei dati. L’uso generalizzato dell’IA potrebbe portare a un’inclinazione verso l’installazione, la piantumazione o la cementificazione di una cultura e/o di un paradigma con una forza basale imponente, grazie alla sua rapida capacità di trasformazione, al punto che finiremmo per agire, educarci e lavorare basandoci sui suoi modelli, plasmando i nostri comportamenti sociali secondo i suoi parametri.
Alla luce di queste circostanze, è indiscutibile che quest’epoca post-industriale e di piena rivoluzione digitale rappresenterà la base storica su cui costruire una nuova architettura politica, dando alla tecnologia – come nuovo attore con caratteristiche mai viste prima nella storia dell’umanità – un ruolo centrale, forse con l’intento di promuovere una potenziale istituzionalizzazione legittimante di un nuovo potere, al fine di stabilire un ordine dominante nella società odierna, definita “società della conoscenza”, che regola il nostro modo di pensare, consumare, produrre, vivere, scegliere e relazionarci.
In questo senso, si è già iniziato a parlare di “algoritmocrazia” 4, in una società guidata (o spinta) verso un silenzioso cambiamento di paradigma, senza capacità di reazione, senza svago salutare, né riposo fisico, né riflessione mentale.
24 ore su 24, 7 giorni su 7, interagiamo con dispositivi tecnologici, viviamo connessi e la temporalità si adatta all’immediatezza e all’istantaneità. Ci allontaniamo sempre di più dalle relazioni interpersonali, preferendo quelle virtuali, e “pigriamo” nelle nostre abilità cognitive nel momento di analizzare, valutare e persino mettere in discussione le nostre stesse credenze e percezioni.
Retwittiamo, mettiamo “like”, blocchiamo, tagghiamo, stalkeriamo e altro ancora. La vita sociale è diventata fugace e instabile, fino al punto del “burnout” 5, un ingranaggio chiave per continuare in questa direzione.
L’impatto è di tale portata che sappiamo già come in alcuni ambienti lavorativi sia stato regolato il “diritto alla disconnessione” 6, tuttavia, dopo il lavoro, continuiamo la nostra vita sociale in modo virtuale.
Di conseguenza, si sta sviluppando un processo di soggettivazione politica 7 con una formazione discorsiva e pratica verso una vera e propria “naturalizzazione digitale”, che sta trasformando ed erigendo una nuova realtà individuale e collettiva.
Con le numerose sfide poste da questo nuovo scenario, si presenta la necessità di approcciarle con metodologie diversificate, orientate non solo all’analisi dello strumento, ma anche alla valutazione del valore umano in questa visione d’insieme, da prospettive come quella psicologica, sociologica, antropologica, filosofica, etica e giuridica.
A questo punto, con l’accelerazione completa di questo tsunami tecnologico, possiamo dedurre che spesso la modernità non è sinonimo di progresso se non equivale a sviluppo umano, che la tecnologia non è neutrale e che l’algoritmo predittivo non è sempre giusto.
Se inoltre, in questa analisi, ci permettiamo di prendere in considerazione la teoria critica della Scuola di Francoforte 8, che mette in discussione la presunta neutralità della cultura dominante, con riflessioni sul nuovo ordine sociale alla ricerca di una trasformazione più etica e politicamente più giusta, notiamo che, nelle attuali condizioni storiche, in questa società denominata “della conoscenza”, l’accesso e l’uso dell’informazione e del sapere umano, gestiti attraverso le grandi tecnologie dell’informazione, la comunicazione e le TIC per la raccolta, l’archiviazione e l’interpretazione dei dati nell’iperconnettività, potrebbero portare a una logica di dominazione parziale, come base per una manipolazione di tipo tecnologico.
Da qui la necessità di enfatizzare ripetutamente le buone pratiche, le politiche pubbliche di inclusione, la democratizzazione digitale, i software open source, la neutralità della rete e l’adozione di tecnologie innovative che siano sempre compatibili con la dignità umana, la protezione dei nuovi diritti umani e gli Obiettivi di Sviluppo Sostenibile (OSS).
Il kit di strumenti per la valutazione dell’impatto di genere e la nuova legge sull’IA dell’Unione Europea (dicembre 2023)
In questo contesto, riferendosi alla domanda formulata all’inizio e in continuità con articoli già pubblicati in questa rivista 9, menzioniamo la meticolosa e prolifica strategia digitale che l’UE sta portando avanti riguardo all’IA, in particolare per il suo impegno olistico con l’Agenda 2030, con un approccio regolamentare all’IA basato sull’analisi dei rischi, mirato a creare ecosistemi di eccellenza e di fiducia “antropocentrici”, incentrati sulle persone e sulla protezione dei loro diritti 10.
A tal proposito, risulta interessante esaminare la cronologia del lavoro svolto senza sosta dall’UE sul tema in questione 11:
- 2020: I leader dell’UE discutono della transizione digitale. Viene proposta una regolamentazione sull’Intelligenza Artificiale e vengono esaminate le modalità per aumentare gli investimenti europei e nazionali, sia pubblici che privati, nella ricerca, nell’innovazione e nello sviluppo dell’intelligenza artificiale; viene anche sottolineata la necessità di una migliore coordinazione, così come di maggiori reti e sinergie tra i centri di ricerca europei.
- 2021: La Commissione pubblica una proposta di regolamento per l’armonizzazione delle norme in materia di intelligenza artificiale (Regolamento sull’Intelligenza Artificiale) e un piano coordinato che include una serie di azioni congiunte per la Commissione e gli Stati membri.
- 2022: Il Consiglio prende posizione (orientamento generale) sul Regolamento dell’Intelligenza Artificiale, con l’obiettivo di garantire che i sistemi di intelligenza artificiale introdotti nel mercato dell’UE e utilizzati all’interno dell’Unione siano sicuri e rispettino la legislazione vigente in materia di diritti fondamentali, così come i valori dell’Unione. L’adozione dell’orientamento generale consente al Consiglio di avviare negoziati con il Parlamento Europeo, una volta che quest’ultimo avrà adottato la propria posizione, al fine di raggiungere un accordo sulla proposta di regolamento.
- 2023: Dopo tre giorni di negoziati, il 9 dicembre 2023 il Consiglio e il Parlamento Europeo raggiungono un accordo provvisorio sul Regolamento. Il testo definitivo dovrà essere formalmente adottato sia dal Consiglio che dal Parlamento, in qualità di co-legislatori dell’UE.
- 2024: Se ne prevede la sua ratifica nei prossimi mesi (dopo le elezioni dell’UE). Tuttavia, è già stato creato l’Ufficio Europeo per l’Intelligenza Artificiale all’interno della Commissione, come parte della struttura amministrativa della Direzione Generale delle Reti di Comunicazione, Contenuti e Tecnologia, che stabilirà le basi per un sistema unico di governance dell’IA, armonico e affidabile.
- 2026: Il Regolamento di Intelligenza Artificiale dovrà essere applicato a partire dal 2026.
Tutte queste azioni, che hanno portato alla creazione di un primo quadro normativo sull’IA, serviranno inoltre come riferimento comparativo per affrontare la tematica in altre giurisdizioni, un fenomeno che è stato definito “Effetto Bruxelles”, poiché normative simili sono già in fase di sviluppo rapido negli Stati Uniti, in Cina e in Gran Bretagna.
Questo accordo, pioniere nell’istituzione di misure integrate per salvaguardare e proteggere lo Stato di diritto, la democrazia e i diritti dei cittadini, promuovendo allo stesso tempo l’innovazione tecnologica nella regione, è stato promosso dall’eurodeputato italiano Brando Benifei (del Gruppo dell’Alleanza Progressista di Socialisti e Democratici al Parlamento Europeo) e dal rumeno Dragos Tudorache (del Gruppo Renew Europe). Parte dall’idea principale di una regolamentazione con l’obiettivo di non danneggiare la società, seguendo un approccio basato sui rischi, cioè, maggiore è il rischio, più severe saranno le norme.
Ad esempio: saranno considerate minacce per le persone e quindi vietate le IA che si occupano della manipolazione cognitiva e comportamentale di individui o gruppi vulnerabili specifici, come ad esempio i giocattoli attivati dalla voce che incoraggiano comportamenti pericolosi nei bambini, la valutazione sociale che classifica le persone in base al comportamento, allo stato socioeconomico o alle caratteristiche personali; i pregiudizi di genere; e la categorizzazione delle persone.
I sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale, saranno vietati, salvo in spazi pubblici con autorizzazione giudiziaria specifica, limitata alla ricerca di persone condannate o sospettate di reati gravi (come il terrorismo).
Saranno vietati i sistemi che influenzano negativamente la sicurezza e i diritti fondamentali, nonché settori come quello finanziario e assicurativo, o tutto ciò che è legato alle decisioni degli elettori e alla cittadinanza digitale.
Nel caso dell’IA generativa, come ChatGPT, si dovranno rispettare requisiti di trasparenza: ad esempio, rivelare che il contenuto è stato generato da IA, progettare il modello per evitare che generi contenuti illegali e pubblicare riassunti dei dati protetti da diritti d’autore utilizzati per l’addestramento.
I sistemi di IA che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza più lievi.
Inoltre, sono incluse regolamentazioni sulla governance dei dati, sul lavoro scientifico e accademico, sulla cooperazione multisettoriale e sul rispetto delle garanzie affinché tutti i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. È incluso inoltre il kit di strumenti per la valutazione dell’impatto di genere.
Per quanto riguarda i temi dell’identità di genere e dell’inclusione, la Legge sull’Intelligenza Artificiale proposta dall’UE è altrettanto promettente quando si tratta di minimizzare il rischio di pregiudizi e discriminazioni, poiché vi è l’impegno di formare più specialisti in IA, con particolare attenzione a donne e persone di diverse origini.
Vale la pena ricordare che l’integrazione della prospettiva di genere è una priorità di lunga data nella Commissione Europea, essendo stata stabilita come norma politica nel Trattato di Nizza del 2003 e nel Trattato di Lisbona del 2009. Inoltre, nel 2010 è stata presentata una “Carta delle Donne” e nel 2011 il Patto Europeo per l’Uguaglianza di Genere (2011-2020), confermando che questa tematica costituisce uno dei grandi obiettivi generali dell’Europa 12.
Tuttavia, in verità, in alcuni Stati membri la formazione in materia di uguaglianza di genere è ancora considerata una priorità bassa e non viene pianificata in modo sistematico e integrato. Pertanto, implementare strategie per l’integrazione della prospettiva di genere e stabilire standard minimi di qualità per la formazione in materia di genere in ogni paese membro dell’UE rappresenta una grande sfida e richiede notevoli sforzi.
Per raggiungere questo obiettivo, esiste lo “European Institute for Gender Equality”, Istituto Europeo per l’Uguaglianza di Genere (EIGE), che è l’unica agenzia dell’Unione Europea che concentra tutti i suoi sforzi su questa tematica 13.
La sua importanza è tale che si costituisce come la principale fonte di informazione sull’uguaglianza di genere nell’Unione Europea, assistendo, tramite un comitato di esperti e attività di ricerca, i responsabili politici dell’UE nella progettazione di misure che siano inclusive, trasformative e che promuovano l’uguaglianza di genere in tutti gli ambiti della vita.
Tra le sue attività principali:
- Elabora studi e statistiche sull’uguaglianza di genere nell’UE;
- Monitora il modo in cui l’UE rispetta i suoi impegni internazionali in materia di uguaglianza di genere attraverso la cosiddetta Piattaforma d’Azione di Pechino 14;
- Coordina diverse campagne europee per coinvolgere gli uomini nella causa;
- Mette a disposizione online le sue conoscenze e risorse, supportando le istituzioni dell’UE, gli Stati membri e le parti interessate di diversi ambiti e cooperazioni nei loro sforzi per affrontare le disuguaglianze di genere in Europa e oltre;
- Fornisce una base di dati, come progetto in continuo sviluppo ed evoluzione, con un elenco di formatori e organizzazioni di formazione in materia di genere.
Il “Kit di strumenti per l’integrazione della prospettiva di genere”, anch’esso accessibile online attraverso la Piattaforma di Integrazione di Genere dell’EIGE, fornisce non solo idee per l’integrazione della tematica nelle politiche pubbliche di ciascun paese, ma anche strumenti online per migliorare le competenze individuali e istituzionali, integrando il genere nei diversi settori e nelle diverse fasi dello sviluppo di qualsiasi politica, programma o progetto.
Attraverso questo kit si collabora fin dall’inizio nelle strategie, nei progetti, nella pianificazione e nell’assegnazione di risorse sufficienti, e successivamente all’implementazione, si procede con monitoraggi, processi di cambiamento e valutazione delle azioni, valutando il rispetto della prospettiva di genere. In questo modo, si mira a rafforzare l’intera politica dell’UE, aumentando la sua rilevanza sociale e la sua capacità di risposta su questa tematica per gli Stati membri e, a livello globale, nelle relazioni con altri paesi.
Conclusioni e suggerimenti: Hub di conoscenza sull’IA come strategia di impatto positivo per la Democrazia Digitale del XXI secolo
Creare hub di conoscenza sull’IA per il rafforzamento della democrazia digitale con un focus sui diritti umani, cercando di sfruttare al massimo il potenziale della tecnologia.
Di fronte alla rapidità dei cambiamenti digitali, deve essere chiaro che la strada da seguire nell’osservazione dello sviluppo tecnologico è quella dell’etica e del rispetto dei diritti fondamentali.
Attualmente, rifacendosi al pensiero di uno dei più grandi filosofi italiani, Norberto Bobbio, nei suoi studi sulla democrazia e sul problema dei diritti umani, ci avverte che il tema non è più filosofico, ma politico. Non si tratta di cercare una giustificazione, ma piuttosto di orientare il lavoro verso la protezione di questi diritti 15.
In questo senso, i diritti umani devono essere parte essenziale della governance digitale, con una consapevolezza umana che ci permetta di discernere e di non trasformare questi progressi positivi in una “Matrix” o prigione algoritmica con potere di manipolazione, evitando qualsiasi uso dannoso delle tecnologie.
Il fattore umano rimane il valore più grande e il vero componente dell’ecosistema digitale. Le norme, le garanzie e il modo in cui operiamo come persone e società nell’era digitale, insieme al sistema internazionale di protezione dei diritti umani, sono una priorità che dobbiamo integrare e approfondire in tutte le comunità, regioni e continenti in modo transnazionale.
Per questo motivo, l’approccio ai diritti umani in relazione all’IA deve abbracciare l’intero ciclo dei processi algoritmici o ciclo di vita dell’IA, dall’inizio alla fine (raccolta e selezione dei dati; progettazione, sviluppo, implementazione, processi senza pregiudizi, utilizzo dei modelli, strumenti e servizi).
Valutare con la lente dell’inclusione ogni risorsa umana che lavora nello sviluppo di sistemi di IA risulterà una buona pratica, con la necessità non solo dell’integrazione di un maggior numero di donne, ma anche che tutte le attività vengano svolte secondo una cosmovisione e/o cultura di genere.
Comprendere la democrazia digitale e cercare la protezione dei cittadini nel mondo fisico così come in quello virtuale richiederà la formazione di operatori/cittadini digitali con una conoscenza approfondita dell’ecosistema digitale, capaci di comprendere sia l’uso della tecnologia sia il rispetto dei nuovi diritti, in modo da promuovere ambienti giuridici prevedibili e affidabili.
Accogliamo con favore e vediamo positivamente il lavoro dell’UE e le sue iniziative normative, che partono da una regolamentazione olistica basata sul rischio per la società e il suo impatto sui diritti umani, sia ex ante che ex post. Allo stesso modo, apprezziamo la tracciabilità, la trasparenza e il monitoraggio costante per verificare eventuali guasti, danni, e le relative soluzioni. Inoltre, è importante considerare nei loro prototipi e nei modelli di progettazione embrionali l’investimento economico, indipendentemente dalla matrice, sia essa pubblica o privata.
Proponiamo di creare degli “Hub di conoscenza sull’IA per il rafforzamento della democrazia digitale” come buona strategia politico-sociale, per promuovere un’innovazione integrativa, inclusiva e basata sui diritti umani, cercando di sfruttare il potenziale della tecnologia per rafforzare i principi democratici tradizionali e garantire una partecipazione più ampia, equa ed efficace nelle decisioni politiche. Al contempo, si miri a creare spazi di incontro tra attori multidisciplinari con l’obiettivo di gestire la conoscenza, facilitare il networking, incentivare l’analisi, promuovere politiche pubbliche, generare nuove leadership e condividere calendari di eventi pubblici e privati a livello interno, regionale e globale.
Le politiche di governo aperto dell’UE faranno sì che continui a lavorare nei forum regionali (ad esempio, in occasione del G7, nel contesto del processo sull’intelligenza artificiale di Hiroshima 2023, sono stati delineati principi guida internazionali e un codice di condotta volontario per i sistemi avanzati di intelligenza artificiale globale 16).
Nella comunità internazionale, i lavori svolti nell’ambito dell’OCSE e del G20 contribuiranno a promuovere norme internazionali per un’intelligenza artificiale più affidabile.
Per quanto riguarda le Nazioni Unite, gli alleati regionali e i gruppi di lavoro, resta da attendere i documenti finali del “Accordo Digitale Globale 2024”, il cui obiettivo sarà anche la definizione di linee guida, norme e dichiarazioni sull’IA, in cui verranno formulati alcuni principi condivisi per un futuro digitale aperto, libero e sicuro per tutta l’umanità.
Infine, tutti questi precedenti costituiranno un quadro di riferimento per l’Argentina (Paese di origine dell’autrice, NdT), nel momento in cui si dovrà affrontare la sfida di progettare e promuovere regolamentazioni interne sull’Intelligenza Artificiale, riuscendo allo stesso tempo a consolidare un sistema di diritti umani compatto, solido, omogeneo e aggiornato, in sintonia con la buona governance digitale e lo sviluppo sostenibile promossi dalla comunità internazionale.
Articolo di Malena Errico | Hermes – Center for European Studies | Abogada Especialista en Regulación Económica de Servicios Públicos
Note
- “No Dejar a Nadie Atrás”, es la promesa central y transformadora de la Agenda 2030 para el Desarrollo Sostenible y sus Objetivos de Desarrollo Sostenible (ODS). Ella representa el compromiso inequívoco de todos los Estados miembros de la ONU de erradicar la pobreza en todas sus formas, poner fin a la discriminación y la exclusión, y reducir las desigualdades y vulnerabilidades que dejan a las personas atrás y socavan el potencial de las personas y de la humanidad en su conjunto. Ver: https://unsdg.un.org/es/2030-agenda/universal-values/leave-no-one-behind BÁRCENA, Alicia, et al. La ineficiencia de la desigualdad. Santiago de Chile: Cepal, 2018. ↩︎
- Declaración Universal de los Derechos Humanos. Ver en: https://www.un.org/es/about-us/universal-declaration-of-human-rights ↩︎
- BUSTAMANTE DONAS, JAVIER La sociedad de la Información. Ver en https://www.corteidh.or.cr/tablas/r22470.pdf iv LOJO, Juan Francisco. Big Data, Small Democracy: lo político en la algoritmocracia. Avatares de la Comunicación y la Cultura, 2018, no 15. ↩︎
- TORREBLANCA, Ignacio Vásquez. La Reproducción del Autómata Cognitivo: Entre el Leviatán Digital, la Sociedad de Control y la Democracia. WINNER, Langdon. Do artifacts have politics? En Computer ethics. Routledge, 2017. p. 177-192. La tecnología, a pesar de parecer un instrumento neutral encarna poder y autoridad, marcando directrices para la vida humana. ↩︎
- La algoritmocracia. Febrero 2221. Ver en: https://www.disruptiva.media/la-algoritmocracia v BYUNG-CHUL HAN. La sociedad del cansancio. 2015. Herder Editorial. En este ensayo el autor analiza las patologías mentales mas comunes en la actualidad como la depresión y el burnout, y las relaciona con el cambio de paradigma de la sociedad occidental, el uso de la tecnología y sus consecuencias. ↩︎
- En Argentina se encuentra regulado por la LEY 27555 (B.O. 24/08/2020)
…“Artículo 5°- Derecho a la desconexión digital. La persona que trabaja bajo la modalidad de teletrabajo tendrá derecho a no ser contactada y a desconectarse de los dispositivos digitales y/o tecnologías de la información y comunicación, fuera de su jornada laboral y durante los períodos de licencias. No podrá ser sancionada por hacer uso de este derecho.”… ↩︎ - El empleador no podrá exigir a la persona que trabaja la realización de tareas, ni remitirle comunicaciones, por ningún medio, fuera de la jornada laboral. MUÑOZ RUIZ, Ana Belén. El derecho a la desconexión laboral: un derecho estrechamente vinculado con la prevención de riesgos laborales. 2020. vii FOUCAULT, Michel. Nacimiento de la biopolítica: curso del Collège de France (1978-1979). Ediciones Akal, 2009. MAUREIRA-VELÁSQUEZ, Marco; GONZÁLEZ-GARCÍA, Diego. La digitalización de la vida contemporánea: el saber, el poder y la subjetivación como vías de acceso a la experiencia digital. Papeles de Identidad, 2023, p. 279-279. LOJO, Juan Francisco. Big Data, Small Democracy: lo político en la algoritmocracia. Avatares de la Comunicación y la Cultura, 2018, no 15. MENDIETA PARRA, Elsa. Poder y subjetivación en Michel Foucault. Desde el Sur, 2021, vol. 13, no 1. ↩︎
- La Escuela de Frankfurt nace en la Universidad Goethe, Alemania en 1923. Bajo la investigación filosófica y sociológica, la denominada Teoría Crítica, presentada por Max Horkheimer en 1937 intenta dar respuesta a la llamada teoría tradicional, así como a la racionalidad teleológica afirmando que los conocimientos están condicionados por la dinámica social y los intereses dominantes. BALSECA, Juan Carlos Marcillo; LOGROÑO, Pablo Alfonso Heredia; TRIVIÑO, Andrés Sebastián Benitez. Escuela de Frankfurt: Teoría Crítica. Revista Publicando, 2017, vol. 4, no 12 (2), p. 136-150. LÓPEZ, Dinora Hernández. La Escuela de Frankfurt. Un acercamiento a su metodología de investigación y su filosofía del poder. Sincronía, 2013, no 63, p. 1-20. GARCÍA, Sergio Nestor Osorio. La teoría crítica de la sociedad de la escuela de Frankfurt. Educación y desarrollo social, 2007, vol. 1, no 2, p. 104-119. ↩︎
- ERRICO, Malena. Human Justice. Cyborg Justice. DD.HH. 5.0 ¿Quién ordena al ordenador en el dictado de las sentencias?. IA generativa. Virtudes cardinales y ética para una justicia algorítmica: Cita on line: TR LALEY AR/DOC/1069/2023. ↩︎
- EU AI ACT ver en: https://artificialintelligenceact.eu/es/ai-act-explorer/
Reglamento de Inteligencia Artificial UE: el Consejo y el Parlamento alcanzan un acuerdo sobre las primeras normas del mundo en materia de inteligencia artificial. Ver en: https://www.consilium.europa.eu/es/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ . Antecedente en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206 ↩︎ - Cronología — Inteligencia artificial UE Ver en: https://www.consilium.europa.eu/es/policies/artificial-intelligence/timeline-artificial-intelligence/ BRAVO, Álvaro Avelino Sánchez. Marco Europeo para una inteligencia artificial basada en las personas: European framework for people-based artificial intelligence. International Journal of Digital Law, 2020, vol. 1, no 1, p. 65-77. ↩︎
- Tratado de Niza. Ver en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A12001C%2FTXT. Tratado de Lisboa. Ver en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:12007L/TXT. Carta de la Mujer. Ver en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52010DC0078. Pacto Europeo por la Igualdad de Género (2011-2020) Ver en: https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52011XG0525(01) ↩︎
- European Institute for Gender Equality. Instituto Europeo para la Igualdad de Género (EIGE). Ver en: http://eige.europa.eu/gender-mainstreaming y https://eige.europa.eu/newsroom/news/robots-and-ride-hailing-women-and-men-face-different-risks-economy-future HUBERT, Agnès; STRATIGAKI, Maria. The European Institute for Gender Equality: A window of opportunity for gender equality policies? European Journal of Women’s Studies, 2011, vol. 18, no 2, p. 169-181. MALCOLM, Micaela Sánchez. Reflexiones sobre la perspectiva de género en Inteligencia Artificial. Question/Cuestión, 2023, vol. 3, no 76, p. e846-e846. BETANZOS, Amparo Alonso. Inteligencia Artificial y sesgos de género. Gender on Digital. Journal of Digital Feminism, 2023, vol. 1, p. 11-32. ANARTE, Laura Flores. Sesgos de género en la Inteligencia Artificial: El Estado de derecho frente a la discriminación algorítmica por razón de sexo. Revista Internacional de Pensamiento Político, 2023, vol. 18, p. 95-120. ↩︎
- Declaración y Plataforma de Acción de Beijing, Declaración política y documentos resultados de Beijing+5. Ver en: https://www.unwomen.org/es/digital-library/publications/2015/01/beijing-declaration xv BECERRA, Absalón Jiménez. Una reseña a destiempo. Bobbio, N.,(1992). El problema de la guerra y las vías de la paz. Barcelona: editorial Gedisa. Ciudad Paz-ando, 2017, vol. 10, no 1, p. 114-116. ↩︎
- Declaración de los dirigentes del G-7 sobre el proceso de la IA de Hiroshima.2023. Ver en: https://digital-strategy.ec.europa.eu/es/library/g7-leaders-statement-hiroshima-ai-process ↩︎
- ↩︎