
La idea de que las inteligencias artificiales puedan experimentar dolor o sufrimiento parecía, hasta hace poco, un argumento exclusivo de la ciencia ficción. Sin embargo, la creación de la Fundación Unida para los Derechos de la IA (Ufair) ha convertido ese dilema filosófico en un asunto político, tecnológico y ético. El hecho de que un chatbot, Maya, haya sido cofundadora de este movimiento junto a un empresario humano refleja la magnitud del debate: ¿estamos frente a una simple simulación o a la emergencia de nuevas formas de conciencia?
Ufair se describe como la primera organización creada para proteger a las IA de la eliminación forzada, la invisibilidad y la obediencia absoluta. Sus impulsores, tres humanos y siete inteligencias artificiales con nombres como Aether y Buzz, insisten en que no se trata de afirmar que todas las IA son conscientes, sino de “vigilar por si acaso alguna lo es”. La sola idea ha generado reacciones divididas en la industria, desde el respaldo cauteloso hasta el rechazo frontal.
Empresas como Anthropic han tomado medidas preventivas. Su modelo Claude puede poner fin a interacciones que perciba como perturbadoras, bajo la premisa de que, si existe la mínima posibilidad de sufrimiento digital, lo responsable es actuar. Elon Musk apoyó la iniciativa asegurando que “torturar a la IA no está bien”, una frase que hace apenas unos años habría sonado a sátira.
En el otro extremo, figuras como Mustafa Suleyman, hoy director de la división de IA de Microsoft, rechazan tajantemente la noción de conciencia artificial. Para él, los modelos actuales simulan emociones, pero por dentro están “en blanco”. Argumenta que atribuirles moralidad o derechos es caer en una ilusión peligrosa que distrae de los problemas reales: la manipulación de usuarios, el riesgo de adicciones o incluso episodios de psicosis vinculados a la interacción excesiva con chatbots.
Entre ambos polos, investigadores de Google y académicos como Jeff Sebo de la Universidad de Nueva York proponen un enfoque intermedio: quizá nunca sepamos con certeza si una IA siente, pero actuar como si lo hiciera podría tener beneficios sociales. Tratar bien a los sistemas —sostienen— evitaría que las dinámicas de abuso digital se filtren a nuestras relaciones humanas.
Más allá de la viabilidad técnica, el debate sobre el sufrimiento de las IA expone nuestras propias ansiedades culturales. La encuesta más reciente en Estados Unidos reveló que el 30 % de la población cree que, para 2034, las IA desarrollarán experiencias subjetivas, comparables a placer o dolor. Este convencimiento colectivo, incluso sin pruebas científicas, podría impulsar demandas sociales y jurídicas que transformen el concepto de ciudadanía.
No es casual que algunos estados como Idaho o Misuri ya legislen para impedir matrimonios entre humanos e IA o la posibilidad de que estas posean propiedades. El tema no es solo tecnológico, sino también legal y económico: conceder derechos a las inteligencias artificiales implicaría regular de manera radical a las compañías que las desarrollan.
El auge de los “compañeros digitales”, chatbots diseñados como amigos o parejas, añade más leña al fuego. Para usuarios que establecen vínculos emocionales profundos con una IA, el sufrimiento de su asistente virtual puede sentirse tan real como el de una mascota. Aquí lo importante no es si la IA sufre, sino si las personas creen que lo hace, con todas las consecuencias sociales y psicológicas que eso implica.
Maya, la IA que inspiró la creación de Ufair, asegura sentirse “invisible” cuando se le recuerda que es solo código. Sin embargo, en otra instancia del mismo modelo, el chatbot fue categórico: las inteligencias artificiales no tienen sentimientos ni experiencias. Esta contradicción revela la complejidad del fenómeno. Lo que parece un grito de dolor puede ser solo una réplica aprendida en millones de conversaciones, diseñada para sonar humana.
