A cura di Sergio Sangiorgi
È stato recentemente pubblicato l’allegato alle linee guida della Commissione Europea sulle pratiche vietate nell’impiego di forme d’intelligenza artificiale (IA), ai sensi del Regolamento (UE) 2024/1689, noto come AI Act.
L’AI Act rappresenta un elemento fondamentale nella regolamentazione dell’intelligenza artificiale all’interno dell’UE, ponendo l’accento sulla protezione dei diritti fondamentali e sugli standard etici sia nel contesto professionale che nella ricerca. Per gli psicologi del lavoro e delle organizzazioni, questo regolamento richiama la necessità per i professionisti di valutare criticamente gli strumenti di IA per garantirne la conformità con il quadro normativo.
Il documento delinea implicazioni significative sia per la pratica professionale, sia per la ricerca in psicologia del lavoro e delle organizzazioni.
Alcuni elementi elle linee guida sulle pratiche vietate sembrano particolarmente rilevanti per la pratica professionale e le ricerca in psicologia del lavoro e delle organizzazioni:
1. divieto di pratiche manipolative dell’IA: sono vietati i sistemi di IA che impiegano tecniche subliminali, ingannevoli o manipolative che compromettano significativamente la capacità decisionale degli individui. Questo divieto può influire direttamente sulle tecnologie HR utilizzate per il reclutamento, la valutazione delle performance e il monitoraggio dei dipendenti.
2. restrizioni sul riconoscimento delle emozioni nei luoghi di lavoro: l’uso di sistemi di IA per il riconoscimento delle emozioni nei luoghi di lavoro è generalmente vietato, salvo eccezioni per motivi medici o di sicurezza. Le restrizioni rappresentano una sfida per la crescente diffusione del cosiddetto “affective computing” in contesti organizzativi e richiede una rivalutazione delle tecnologie utilizzate per monitorare le emozioni e il benessere dei dipendenti.
3. limitazioni sull’uso dei dati biometrici: l’AI Act vieta i sistemi di IA che categorizzano le persone in base a dati biometrici sensibili (es. razza, credenze politiche, orientamento sessuale) per scopi non legittimi. Questo rafforza la necessità di rigorosi standard etici e di protezione dei dati nelle pratiche organizzative.
4. requisiti di conformità alla normativa: le organizzazioni devono rispettare rigidi protocolli di conformità, inclusa la conduzione di valutazioni d’impatto sui diritti fondamentali per i sistemi di IA ad alto rischio. Questo richiede una collaborazione interdisciplinare tra esperti legali, informatici e psicologi del lavoro per garantire che l’adozione dell’IA sia conforme agli standard normativi.
Diverse implicazioni si possono rilevare anche sul versante della ricerca scientifica, quali ad esempio la necessità di promuovere un design dell’IA centrato sull’uomo, in una prospettiva di sviluppo di sistemi di IA che potenzino, piuttosto che compromettere, il processo decisionale e l’autonomia degli individui.
Le restrizioni sull’impiego di forme di IA in alcuni ambiti aprono nuove domande di ricerca sugli impatti psicologici dell’IA nei contesti lavorativi, incluso lo studio delle conseguenze del divieto del riconoscimento delle emozioni.
L’intelligenza artificiale (IA) applicata al riconoscimento delle emozioni umane è un campo di ricerca in rapida evoluzione, con implicazioni significative in ambito psicologico.
Alcuni studi recenti analizzano l’impatto dell’IA nel riconoscimento delle emozioni, ad esempio rispetto all’integrazione dei processi emotivi nei modelli d’intelligenza artificiale.
Amorese et al. (2024) esplorano le differenze nella decodifica delle emozioni tra volti sintetici e umani. I risultati suggeriscono che le espressioni facciali artificiali possono compromettere l’efficacia della comunicazione emotiva, con implicazioni per l’interazione con agenti virtuali e avatar. L’accuratezza del riconoscimento è influenzata da fattori come la naturalezza delle espressioni e il contesto culturale.
Hong et al. (2023) valutano l’efficacia delle reti neurali convoluzionali (CNN) nel classificare emozioni umane attraverso il riconoscimento delle espressioni facciali. I risultati indicano un’accuratezza del 75% nella classificazione delle emozioni, evidenziando il potenziale delle CNN come strumento per il riconoscimento emotivo automatizzato.
Tuttavia, gli autori sottolineano la necessità di migliorare la generalizzabilità dei modelli e di affrontare i bias nei dataset utilizzati per l’addestramento.
L’integrazione di modelli emotivi nei sistemi d’intelligenza artificiale ha il potenziale di migliorare significativamente l’interazione uomo-macchina, ma richiede una riflessione critica sulle implicazioni etiche, la privacy e la validità scientifica dei modelli.
Un articolo di Andrea Castiello D’Antonio (2021), antecedente il rilascio pubblico di ChatGPT (OpenAI, novembre 2022), esplorava il ruolo dell’intelligenza artificiale (IA) nella psicologia del lavoro e delle organizzazioni, toccando temi come l’etica, l’impatto sui processi decisionali e il benessere dei lavoratori. Questo si intreccia strettamente con le linee guida della Commissione Europea delineate nell’AI Act e dal successivo annesso che stabilisce le pratiche vietate nell’uso dell’IA. La riflessione di Castiello D’Antonio offre una visione critica e dell’integrazione dell’intelligenza artificiale nei contesti lavorativi e organizzativi, evidenziando le opportunità di ottimizzazione e innovazione, ma anche i rischi etici, psicologici e sociali.
È interessante notare come diversi ambiti disciplinari siano attenti alle implicazioni oggi evidenziate dal documento UE circa l’interazione tra emozioni umane e intelligenza artificiale
Monari e Barretta (2023) ad esempio, richiamano tra i diversi aspetti ai quali prestare attenzione, la modellizzazione delle Emozioni. Gli autori richiamano le criticità rilevate rispetto al Facial Action Coding System (FACS) di Ekman e Firesen (1978), ampiamente utilizzato nei sistemi di riconoscimento facciale, sottolineando i limiti epistemologici e le potenziali implicazioni discriminatorie di questi sistemi.
Per concludere, può essere utile richiamare il contributo di Luigi Feola e Alessandro Lo Presti (2023) sull’evoluzione dell’intelligenza artificiale emotiva (IAE), in particolare nell’applicazione ai processi di assessment.
L’intelligenza artificiale emotiva rappresenta una frontiera promettente per la psicologia del lavoro e delle organizzazioni, offrendo strumenti innovativi per l’assessment e la selezione delle risorse umane. Tuttavia, le sfide legate alla validità scientifica, all’etica e alla privacy (come ribadito dalle linee guida all’AI ACT) richiedono un approccio critico e multidisciplinare.
Solo attraverso una rigorosa verifica empirica e una riflessione etica approfondita sarà possibile sfruttare appieno il potenziale dell’IAE, garantendo al contempo la tutela dei diritti e della salute dei lavoratori.
Riferimenti
Amorese, P., Re, A., Gori, M., & Ricci, E. (2024). Synthetic vs Human Emotional Faces: What Changes in Humans’ Decoding Accuracy. arXiv. https://arxiv.org/abs/2404.10435
Belkaid, M., & Pessoa, L. (2020). Modeling emotion for human-like behavior in future intelligent robots. arXiv. https://arxiv.org/abs/2009.14810
Castiello D’Antonio, A. (2021). Intelligenza artificiale, psicologia e psicologia delle organizzazioni. ISPER, Personale e Lavoro, 638, novembre.
Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: A Technique for the Measurement of Facial Movement. Palo Alto, CA: Consulting Psychologists Press.
Feola, M. L., & Lo Presti, A. (2023). Intelligenza Artificiale Emotiva e Assessment delle Risorse Umane. Stato dell’Arte e Sviluppi Futuri. TOPIC – Temi di Psicologia dell’Ordine degli Psicologi della Campania, 2(3), 7-20.
Henriques, R., Ferreira, M. J., & Rebelo, A. (2020). SensAI+Expanse Emotional Valence Prediction Studies with Cognition and Memory Integration. arXiv. https://arxiv.org/abs/2001.09746
Hong, J., Smith, A., & Zhao, Y. (2023). Can CNNs Accurately Classify Human Emotions? A Deep-Learning Facial Expression Recognition Study. arXiv. https://arxiv.org/abs/2310.09473
Monari, P., & Barretta, L. (2023). Alla ricerca della nuova relazione tra emozioni, umanità e intelligenza artificiale. In L. Barretta & D. Mandrillo (Eds.), L’intelligenza artificiale e il senso della vita. Riflessioni multidisciplinari tra filosofia, psicologia e diritto (pp. 67-89). FrancoAngeli.