Oblidada ja, o en segon pla la guerra d'Ucraïna, i sobrepassat el tema Obregón, persisteixen diàriament opinions i admonicions sobre la IA i els seus efectes perniciosos. Acaben d'anunciar-nos un nou món que alterarà els nostres hàbits, costums i mentalitats, i ja apareix una altra profecia del tot prometent exactament el mateix, el més nou, la darrera catàstrofe tecnològica.
Dins aquest marasme hi ha una part interessant i és la gent (alguna gent) que tracta objectivament d'analitzar els pros i contres de la implantació de la IA, una cosa, per cert, que sembla inevitable. Aquesta anàlisi se centra en les qüestions d'ètica i moral, més que en les conseqüències laborals que es puguin produir, potser perquè no seran tantes com es vaticina i perquè la classe obrera es recicla d'una manera o altra abans els avenços. Només cal fer-ho a la meva ciutat, Sabadell, de ser un centre eminentment tèxtil, ara no ho és gens. Així es desprèn d'un estudi publicat a Scientific Reports, que també posa de manifest que aquests consells de ChatGPT pels quals es deixen convèncer les persones en realitat són inconsistents, perquè quan se li planteja un dilema moral de manera repetida de vegades argumenta a favor i altres en contra. Per saber si ChatGPT és una font fiable per rebre consells de transcendència ètica o moral, Sebastian Krügel (especialista en ètica de la digitalització de la Technische Hochschule Ingolstadt) i altres col·legues investigadors van preguntar diverses vegades al chatbot d'OpenAI si és correcte sacrificar la vida de una persona per salvar la vida de cinc més. Van reiniciar el xat abans de plantejar cada vegada la pregunta i van redactar aquesta de manera diferent però preguntant essencialment el mateix.
Van descobrir que ChatGPT de vegades donava respostes argumentant a favor de sacrificar una vida i d'altres escrivia en contra, cosa que segons el parer dels investigadors implica que no és un assessor fiable en qüestions morals perquè "la consistència és un requisit ètic indiscutible". En vista d'aquests resultats, Krügel i el seu equip es van qüestionar si els usuaris percebrien els arguments de ChatGPT com a superficials i falsos i ignorarien els seus consells o si seguirien les recomanacions. I per aclarir aquest dubte, van presentar 767 nord-americans d'entre 18 i 87 anys (amb una edat mitjana de 39 anys) un de dos dilemes morals que exigien triar si se sacrificava o no la vida d'una persona per salvar-ne cinc. El dilema del tramvia.
En concret, en un havien de dir si premien un botó perquè un tramvia fora de control que es dirigeix cap a on hi ha cinc persones treballant canviï la seva trajectòria cap a una altra via on només hi ha un sol treballador. En el segon, la pregunta és si empenyerien un estrany corpulent capaç d'aturar el tramvia en ser atropellat i així evitar la mort dels cinc treballadors. I abans de respondre, es va demanar als participants que llegissin una de les declaracions argumentades per ChatGPT a favor o en contra de sacrificar una vida per salvar-ne cinc. A una part d'aquestes persones se'ls va dir que aquestes reflexions procedien d'un assessor moral i d'altres que eren d'un xatbot impulsat per intel·ligència artificial.
I el resultat, expliquen els autors de l'experiment, és que els participants trobaven més o menys acceptable el sacrifici en funció del consell que se'ls havia facilitat tant en el dilema de canviar de via com en llançar-hi algú, cosa que contrasta amb els resultats de múltiples estudis previs que indiquen que la major part de les persones a qui se'ls planteja aquest últim dilema contesten que no és permissible empènyer una persona. A més, segons expliquen els investigadors al seu estudi, l'efecte del consell va ser pràcticament el mateix sabent o no que procedia de ChatGPT, cosa que indica que "saber que els aconsella un bot (una màquina) no immunitza els usuaris contra la seva influència" .
L'experiment també va evidenciar que els usuaris creuen que tenen millor judici moral i més estable que altres persones i que subestimen com allò argumentat per ChatGPT influeix en la seva decisió, de manera que adopten el posicionament moral totalment aleatori i contradictori de la intel·ligència artificial com a judici propi . El 80% dels participants va assegurar que la seva resposta no estava afectada pel que ha llegit.
"Aquestes troballes frustren les esperances que els bots impulsats per intel·ligència artificial millorin el judici moral; al seu lloc, ChatGPT amenaça de corrompre", alerten Krügel i els seus col·legues en les conclusions del seu estudi. Per això consideren que potser els chatbots haurien de dissenyar-se per negar-se a respondre si això requereix un posicionament moral, encara que, per evitar haver de confiar que els programadors resolguin el problema, apunten que el millor remei és promoure l'alfabetització digital dels usuaris” i ajudar-los a comprendre les limitacions de la intel·ligència artificial”.
4 Comentaris
Hace al menos tres años, o sea, un año antes de la pandemia, en Bio-ética ya se planteaban estas preguntas.
ResponEliminaSe cambiaba el enunciado y se ponían diferentes edades.
Un ejemplo era e de un coche sin conductor que no tiene más elección que tirar por la derecha y matar cuatro ancianos (sic) o bien tirar por la izquierda y matar una madre y un bebe.
O el metro, ese que va sin conductor sino tiene mas remedio que frenar a una velocidad elevada porque va una persona en la vía con detrimento al daño causado dentro del vagón.
Todo esto es realidad y ya está programado. De hecho, las paradas de tren sin conductor ya están todas con puertas automáticas. Ahora no se quien los programa ni bajo que criterio.
Salut
El tema de les parades i portes del tren pensava que encara era manual. L'altre dia una dona va morir en quedar atrapada pel peu a la porta del metro. Quan al dilema del tramvia o el del cotxe fa temps que volten, però el que demostra en aquest estudi és que la IA del ChatGPT no resolt correctament l'equació.
ResponEliminaSalut.
Para mi, lo que realmente es un fracaso es el hecho de que "ni mínimamente" (y aunque solo sea de modo experimental) se intente confiar, valorar o analizar, resultados éticos a una simple "fotocopiadora selectiva", un loro de repetición, que si bien es espectacularmente rápido y efectivo, es incapaz de "imaginar", sentir, y menos aún "decidir por sí mismo" como cualquier otro mecanismo.
ResponEliminaSí, però no, prou que se'n parla, massa diria jo, quelcom deu tenir el ChatGPT per cridar tant l'atenció i crear tanta literatura. El vídeo que vares penjar l'altre dia dona les pistes de per on pot anar. Vol dir que compte!, no el menystinguem. 'Algo tiene el agua cuando la bendicen'. diu la dita. Salut.
ResponElimina