1.- Un robot no pot lesionar a un ésser humà o, per mitjà de la inacció, permetre que un ésser humà sigui lesionat.
2.- Un robot ha d'obeir les ordres donades pels éssers humans, excepte si aquestes ordres entressin en conflicte amb la Primera Llei.
3.- Un robot ha de protegir la seva pròpia existència en la mesura que aquesta protecció no sigui incompatible amb la primera o segona llei.
84 anys després, Anthropic ha fet un pas inèdit al món de la IA amb la publicació d'una Constitució de la seva intel·ligència artificial Claude. Es tracta d'un marc ètic que guia els valors d'aquesta IA i estableix una jerarquia de prioritats com la seguretat i la integritat ètica per sobre de la simple utilitat per a aquesta empresa o per als usuaris. És un document que, més que per a la lectura dels humans, és una guia de comportament per a la pròpia intel·ligència artificial.
La Constitució de Claude no és pas un simple llistat d'objectius i limitacions. Anthropic observa que “les regles sovint no preveuen totes les situacions i poden donar lloc a mals resultats quan se segueixen de forma rígida en circumstàncies en què no serveixen realment al seu objectiu”. Per tant, aquesta llei fonamental de la IA ha de ser aplicable en qualsevol situació, sigui quina sigui, sense que en canviïn les prioritats, on la seguretat sempre és el principi més alt de l'escalafó.
Anthropic afirma que "la majoria dels casos previsibles en què els models d'IA són insegurs o insuficientment beneficiosos poden atribuir-se a models que tenen valors obertament o subtilment perjudicials, un coneixement limitat de si mateixos, del món o del context en què s'utilitzen, o que no tenen la saviesa necessària per traduir els bons valors". Per contra, aquesta companyia vol “que Claude tingui els valors, el coneixement i la saviesa necessaris per comportar-se de manera segura i beneficiosa en totes les circumstàncies”.
Les prioritats que la IA ha de seguir són, per aquest ordre, ser segura, ètica, complir les directrius que li marqui Anthropic i, en darrer lloc, ser útil per als usuaris de Claude. La Constitució explica a la intel·ligència artificial el perquè de cada principi de manera que pugui “entendre” els valors que ha d'aplicar davant de noves situacions que no s'hagi trobat abans. Una de les excepcions interessants és que s'insta la IA a desobeir l'empresa que l'ha creada en cas que les ordres contravinguin els principis més prioritaris.
Com que Anthropic reconeix riscos potencials en la tecnologia, es proposa amb la seva Constitució per a Claude “evitar catàstrofes a gran escala, especialment aquelles que empitjoren considerablement les perspectives a llarg termini del món, ja sigui per errors dels models d'IA, per l'ús indegut dels models d'IA per part dels éssers humans o per models d'IA.
Hi haurà qui en farà befa, qui en dirà que és maquillatge o un miratge de virtut. Però, sota aquesta capa d’escepticisme, alguna cosa més profunda s’hi mou. Amb la seva Constitució, Anthropic no redacta només un codi: encén una foguera enmig del desert tecnològic. Una flama fràgil, potser, però obstinada, que vol il·luminar el camí dels artefactes que vindran. I en la tremolor d’aquesta llum s’intueix una promesa: que la intel·ligència artificial, si ha de créixer, que sigui amb ànima; si ha de parlar, que sigui amb consciència; i si ha de perdurar, que sigui sobre un fonament que no sigui només silici, sinó també sentit. Només l'ètica ens pot salvar del desastre.

Gairebé 30 euracus al mes. (use.ai) donen per a fer constitucions i d'altres floritures.
ResponEliminaNo sé, no vull semblar negativista, però m'ofereix poca fe. Quedarem expectants.
Com diria Car res, per creure s'ha de tenir fe.
EliminaEls 29,99 és el preu mínim. El que fan és integrar en una sola interfície les IAs més usables. Accede a GPT-5, Claude, Grok y más — todo bajo un mismo techo
ResponEliminaBefa, no en vull fer, ni de molt, però incredulitat...força.
D'ací a quatre dies totes les IA seran de pagament. Cal donar-els-hi un marge de confiança als d'Anthropic, no tot és Musk i Grok, el desert és més gran i hi ha algun oasi.
EliminaEstic segur que sí, i tant.
EliminaEn Tecnología existe el concepto fuerza electromotriz y lo contrario la fuerza contra electro motriz,de sentido contrario y aprovechables,que al final se convierte en calor,cuando llega a su degradación total.Si vas en una bici eléctrica, la f.e.m que proporciona la batería, es controlable y la bici puede alcanzar una velocidad.Pero si frenas,aparece la f.c.e m,que se opone y ya no es tan controlable.Seria un momento en que el robot,podría tener "voluntad propia" y disparar.Mejor no ponerle una pistola cerca
ResponEliminaSaludosl
Hoy lo podré comprobar, en nada salgo con la bici, que ando con el mono. De no ser hoy, en días no podré hacerlo. Jodido invierno....
EliminaSaludos!
Estoy fatal,con el mono,las piernas flojas igual el pito.Es que cuando me decido,se pone todo oscuro y me da miedo.Es que con tanta agua,no sabes lo que puede pasar
EliminaSaludos.
Pues o sales hoy (lo haré por la tarde), o a partir de mañana se lía la cosa otra vez, frío, nieve, agua, viento, durante una semana...
Elimina