Manipolare l’intelligenza artificiale generativa attraverso il jailbreaking
Pubblicato 2024-06-12
Parole chiave
- Generative Artificial Intelligence,
- ChatGPT,
- AI ethics,
- Jailbreaking,
- regulation of AI
Come citare
Abstract
In questo articolo analizzerò i rischi legati all'utilizzo di sistemi di intelligenza artificiale generativa e le relative strategie di riduzione del rischio, concentrandomi in particolare sulla possibilità di manomettere il chatbot ChatGPT tramite jailbreak. Dopo aver esaminato come un utente possa manomettere questa IA generativa, aggirando le sue restrizioni etiche e legali, attraverso una serie di prompt, sposterò l'attenzione sulle questioni etiche sollevate dall'uso malevolo di questa tecnologia: i requisiti di trasparenza richiesti alle IA generative sono sufficienti o dovrebbero esserci restrizioni più severe che non ostacolino l'innovazione e lo sviluppo di queste tecnologie? Come si può ridurre il rischio di manomissione di questi strumenti di IA? E, in caso di violazione, chi è responsabile: lo sviluppatore dell'IA o il jailbreaker? In che misura i cambiamenti necessari per impedire il jailbreak potrebbero involontariamente generare o rafforzare alcuni pregiudizi? In conclusione, sosterrò la necessità di una riflessione etica per uno sviluppo sostenibile e “umano-centrico” dell'intelligenza artificiale.