Les lleis de la robòtica creades per Isaac Asimov, van aparèixer per primera vegada al relat “Runaround” (“Cercle viciós”), publicat el 1942. Les Tres Lleis de la Robòtica són:

1.- Un robot no pot lesionar a un ésser humà o, per mitjà de la inacció, permetre que un ésser humà sigui lesionat.

2.- Un robot ha d'obeir les ordres donades pels éssers humans, excepte si aquestes ordres entressin en conflicte amb la Primera Llei.

3.- Un robot ha de protegir la seva pròpia existència en la mesura que aquesta protecció no sigui incompatible amb la primera o segona llei.

84 anys després, Anthropic ha fet un pas inèdit al món de la IA amb la publicació d'una Constitució de la seva intel·ligència artificial Claude. Es tracta d'un marc ètic que guia els valors d'aquesta IA i estableix una jerarquia de prioritats com la seguretat i la integritat ètica per sobre de la simple utilitat per a aquesta empresa o per als usuaris. És un document que, més que per a la lectura dels humans, és una guia de comportament per a la pròpia intel·ligència artificial.

La Constitució de Claude no és pas un simple llistat d'objectius i limitacions. Anthropic observa que “les regles sovint no preveuen totes les situacions i poden donar lloc a mals resultats quan se segueixen de forma rígida en circumstàncies en què no serveixen realment al seu objectiu”. Per tant, aquesta llei fonamental de la IA ha de ser aplicable en qualsevol situació, sigui quina sigui, sense que en canviïn les prioritats, on la seguretat sempre és el principi més alt de l'escalafó.

Anthropic afirma que "la majoria dels casos previsibles en què els models d'IA són insegurs o insuficientment beneficiosos poden atribuir-se a models que tenen valors obertament o subtilment perjudicials, un coneixement limitat de si mateixos, del món o del context en què s'utilitzen, o que no tenen la saviesa necessària per traduir els bons valors". Per contra, aquesta companyia vol “que Claude tingui els valors, el coneixement i la saviesa necessaris per comportar-se de manera segura i beneficiosa en totes les circumstàncies”.

Les prioritats que la IA ha de seguir són, per aquest ordre, ser segura, ètica, complir les directrius que li marqui Anthropic i, en darrer lloc, ser útil per als usuaris de Claude. La Constitució explica a la intel·ligència artificial el perquè de cada principi de manera que pugui “entendre” els valors que ha d'aplicar davant de noves situacions que no s'hagi trobat abans. Una de les excepcions interessants és que s'insta la IA a desobeir l'empresa que l'ha creada en cas que les ordres contravinguin els principis més prioritaris.

Com que Anthropic reconeix riscos potencials en la tecnologia, es proposa amb la seva Constitució per a Claude “evitar catàstrofes a gran escala, especialment aquelles que empitjoren considerablement les perspectives a llarg termini del món, ja sigui per errors dels models d'IA, per l'ús indegut dels models d'IA per part dels éssers humans o per models d'IA.

Hi haurà qui en farà befa, qui en dirà que és maquillatge o un miratge de virtut. Però, sota aquesta capa d’escepticisme, alguna cosa més profunda s’hi mou. Amb la seva Constitució, Anthropic no redacta només un codi: encén una foguera enmig del desert tecnològic. Una flama fràgil, potser, però obstinada, que vol il·luminar el camí dels artefactes que vindran. I en la tremolor d’aquesta llum s’intueix una promesa: que la intel·ligència artificial, si ha de créixer, que sigui amb ànima; si ha de parlar, que sigui amb consciència; i si ha de perdurar, que sigui sobre un fonament que no sigui només silici, sinó també sentit. Només l'ètica ens pot salvar del desastre.