La responsabilitat última ha de ser d'un humà - Ulisses Cortés - No podem fiar-nos d'un professional que utilitza una eina comercial de la IA generativa (GIA) en el treball, però aquesta censura ha d'anar acompanyada d'una reflexió crítica sobre el context en què s'empren aquest tipus de solucions, sota quines condicions s'utilitzen i a qui pot afectar el resultat si les seves recomanacions poden impactar en humans o en el medi ambient.
Aquestes eines, encara que potents i versàtils, solen patir de la falta de certificació rigorosa. Moltes de les solucions comercials disponibles, com els grans models de llenguatge, han arribat al mercat amb rapidesa, sense comptar amb processos d'auditoria homologats ni amb mecanismes estàndard de verificació dels seus resultats exigibles a qualsevol producte. Per tant, confiar a cegues en els resultats que produeixen, sense una supervisió o validació humana, seria una imprudència metodològica, professional i legal.
La fiabilitat d'un professional ha de mesurar-se, en gran manera, pel seu domini crític de les eines que utilitza en el seu treball. El fet que una persona incorpori una eina basada en la IA en el seu flux de treball no és inherentment negatiu; de fet, aquest tipus d'eines estan en ús fa trenta o quaranta anys en entorns controlats i especialitzats com el diagnòstic mèdic o els filtres antispam. L'ús d'eines GIA és distint, perquè s'assumeix que són capaços de donar respostes correctes a qualsevol pregunta general realitzada per treballadors menys experimentats en l'ús d'eines complexes. La clau de l'ús apropiat d'aquestes eines resideix en el fet que aquests professionals coneguin les limitacions, els possibles biaixos i errors, mal anomenats al·lucinacions, que produeixen aquests models. No n'hi ha prou amb usar l'eina: cal entendre com i quan les seves respostes requereixen revisió i, si escau, correcció.
A més, tenim els elements ètic i legal. La GIA opera a partir de grans quantitats de dades, gairebé sempre recopilats sense possibilitat de traçabilitat individual ni garantia de veracitat per a cada entrada. Aquesta opacitat representa un risc, tant per la possibilitat de generar contingut erroni o enganyós, com pel potencial per a infringir drets d'autor, diluir l'originalitat o perpetuar biaixos socioculturals presents en les dades d'entrenament.
Des d'una perspectiva d'impacte sobre el treball i la creativitat, la GIA pot tenir la virtut de potenciar l'eficiència operativa, però no pot substituir el judici crític, la capacitat de discerniment ni la creativitat inherent al treball humà. On les eines basades en la IA representen una oportunitat és a automatitzar tasques repetitives i explorar patrons en grans volums d'informació; no obstant això, l'avaluació, adaptació i decisió final han de recaure en el professional humà.
Una altra aresta rellevant és la del control sobre la tecnologia. Les grans plataformes comercials de la IA solen estar en mans d'empreses estrangeres, significant que tant les dades com la propietat intel·lectual vinculada als resultats poden escapar a la jurisdicció i els interessos locals o europeus. És important que els professionals siguin conscients d'aquest fet i, en la mesura del possible, orientin l'adopció d'aquestes eines cap a entorns auditables, transparents i alineats amb els valors i prioritats de la nostra societat.
En conclusió, el nombre de professionals capaços d'usar eines de la IA generativa comercial en el seu treball és reduït. Per a augmentar aquest número i la qualitat i seguretat és necessària una capacitació crítica, ètica i tècnica, i que l'eina s'empri amb responsabilitat, transparència i sentit de supervisió. La maduresa professional en l'adopció de IA no resideix a delegar tasques en la màquina, sinó a integrar-la com una eina d'ajuda que potencia les nostres capacitats, assegurant-nos que el judici i la responsabilitat última continuen sent d'un humà. Ulisses Cortés és catedràtic d'intel·ligència artificial de la Universitat Politècnica de Catalunya (UPC).
No culpemos a la herramienta - Cecilia Celeste Danesi - Sentar a una persona en el banquillo de los acusados por reconocer lo que todos hacen resulta, cuanto menos, hipócrita; pero no es la primera vez que sucede. “El que esté libre de pecado que tire la primera piedra”, ¿no? El primer ministro sueco, Ulf Kristersson, reconoció que recurre “con bastante frecuencia” a herramientas de inteligencia artificial (IA) para tener una “segunda opinión”, y las críticas no tardaron en llegar. El primer punto a tener en cuenta es la fiabilidad y la robustez de las respuestas que ofrecen los modelos como ChatGPT. En reiteradas ocasiones somos testigos de las absurdas respuestas que nos dan los sistemas de IA. Pero el problema no son los fallos del sistema, sino qué hacemos con esas respuestas y, sobre todo, hasta qué punto podemos apartarnos de ellas.
La psicología y las neurociencias emplean varios conceptos para describir el fenómeno de cómo ciertos estímulos, pruebas o elementos externos condicionan en buena medida nuestra toma de decisiones: el efecto de encuadre (framing effect), los heurísticos y los sesgos cognitivos (cognitive biases/heuristics), el pequeño empujón conductual (nudging), los efectos de activación (priming) y de sugestión o anclaje (anchoring effect) y, sobre todo, el más reciente: la delegación cognitiva (cognitive offloading), que se da cuando confiamos demasiado en herramientas externas como la IA para tomar decisiones en lugar de procesar de manera crítica.
Pero, estos riesgos ¿deberían llevarnos a no utilizar la IA en el ámbito laboral o incluso a prohibirla? No. Sí deberían, en cambio, alertarnos, hacernos más conscientes para “protegernos”, pero sin privarnos de sus beneficios. Para proteger la actividad mental y cerebral de las neurotecnologías nació, de la mano de Rafael Yuste, una nueva generación de derechos humanos: los neuroderechos.
Si un político (o cualquier otro profesional) realiza una acción o toma una decisión dañina, podrá ser demandando y eventualmente condenado a repararlo. El ejemplo típico es el del médico que se apoya en sistemas de IA para hacer un diagnóstico: si el sistema falla, la responsabilidad sigue recayendo en él.
Otro punto de conflicto es la privacidad de los datos y la confidencialidad. Si bien el portavoz de Kristersson aclaró que no se trataba de información reservada, existen formas de consultar a una IA sin exponer información sensible y de manera que se garantice la privacidad.
Nos arriesgamos a decir que cualquier persona conoce la eficiencia en el volumen y la velocidad de acceso a la información de la IA. Ahora bien, la dinámica propia y la de nuestros equipos de trabajo no siempre es clara e integral. La IA podría auxiliarnos y favorecer la eliminación de estos puntos ciegos.
La IA es una realidad en todas las disciplinas y ámbitos. No podemos desconocer sus beneficios y menos aún que es utilizada en ámbitos sumamente sensibles como la medicina, la justicia y las tareas de gobierno. Debemos trabajar para que su uso sea ético, inclusivo y respetuoso con los derechos humanos. El paraguas de la gobernanza ética de la IA es la brújula. Veamos algunas propuestas: Utilizar los sistemas siempre bajo supervisión humana y con auditorias algorítmicas de aquellos que pueden causar grandes daños o se usan en sectores críticos.
Protocolos: en las áreas sumamente críticas se pueden definir normas de uso y capacitación obligatorias para garantizar que los usuarios conozcan sus riesgos, en especial en materia de sesgos algorítmicos. Transparencia y responsabilidad: también es posible exigir a las instituciones públicas que usen la IA que deban declararlo. La responsabilidad siempre recaerá en una persona y no en el sistema.
El caso sueco supone un ejemplo más del elefante en la habitación: mientras algunos temen perder soberanía frente a la tecnología y la demonizan, otros la consideran una aliada. No se trata de estar en un extremo u otro, sino de construir con diálogo social un punto de equilibrio. Cecilia Celeste Danesi es codirectora del máster en Gobernanza Ética de la Inteligencia Artificial de la Universidad Pontificia de Salamanca.
Opinión El País
han arribat al mercat amb rapidesa, sense comptar amb processos d'auditoria homologats ni amb mecanismes estàndard de verificació dels seus resultats exigibles a qualsevol producte....
ResponEliminaQue potser els sistemes neuronals d'un professional o un polític tenen algun sistema d'auditoria homologat? Sabem que solen estar "contaminats" per inclinacions i biaixos. De vegades dubto de quin dels dos sistemes, si la I.H. o la I.A. és la més perillosa
Sense cap mena de dubte, la més perillosa es la IH. De fet, la IA la ja creat la IH. Vol dir que ja neix pervertida d'origen. Amb la IA hem fet com amb els nens, pervertir-los fins que arriben a ser adults.
EliminaNo puedo opinar, pero poco me fio de una persona que para gobernar tenga que consultar una máquina, aunque bien mirado y tal como se han puesto las cosas, al igual la máquina gobierna con más sentido común que cualquier humano.
ResponEliminaSalut
Possiblement, sia així, de sentit comú en va sobrada l'actual IA, mentre que els polítics cada vegada en tenen menys. Trobo interessant l'opinió dels dos experts, crec que és bo i sa debatre sobre els pros i els contres de la IA, no menystenir-la ni lloar-la en excés, sinó aprendre a conviure i treballar amb ella, amb mesura i sentit comú.
ResponEliminaSalut.
Antes echábamos mano de la Wikipedia, para alguna consulta de la que no sabíamos nada. Nos dimos cuenta, que si esta era de nuestra especialidad, tenía errores a veces de los que podíamos poner puntos negativos a un alumno en un examen. Por ejemplo, confundir la unidad de potencia eléctrica con la de intensidad eléctrica. Ahora. está pasando con la IA.
ResponEliminaAsí que consulte con sus ministros, sus técnicos, que para eso están
No sé qué es mejor, si consultar a la IA o a los ministros, de todos modos Kristersson dice que la consulta como segunda opinión, lo que tampoco es ningún disparate, sobre todo porque la primera opinión de la IH a menudo no suele ser de fiar. Pero entiendo que es bueno debatir sobre este tema,. Porque la IA cada vez estará más en nuestras vidas, i la IH menos.
ResponEliminaConsultar, puede hacerlo, como todos lo hacemos, por algún detalle, pero ya está. Las decisiones tienen que ser colegiadas con sus ministros, con ayuda de sus respectivos departamentos técnicos. A la IA no se le puede pedir responsabilidad.
ResponEliminaSeguro que está noticia es una más, de las que aparece en los periódicos para llamar la atención y el primer ministro no ha dicho nada con el sentido que le da el periodista, que ha sacado una buena tajada del asunto.
La noticia, como todo en la vida, tiene la relevancia que le quiera dar cada uno. No es de relleno porque de noticias similares andan sobrados y desbordados los medios que poca tajada sacan de cualquier noticia.
ResponElimina