window.arcIdentityApiOrigin = "https://publicapi.elpais.noticiasdopara.net";window.arcSalesApiOrigin = "https://publicapi.elpais.noticiasdopara.net";window.arcUrl = "/subscriptions";if (false || window.location.pathname.indexOf('/pf/') === 0) { window.arcUrl = "/pf" + window.arcUrl + "?_website=el-pais"; }¿A cuántos niños más tiene que matar la IA? | Negocios | EL PAÍSp{margin:0 0 2rem var(--grid-8-1-column-content-gap)}}@media (min-width: 1310px){.x-f .x_w,.tpl-noads .x .x_w{padding-left:3.4375rem;padding-right:3.4375rem}}@media (min-width: 89.9375em){.a .a_e-o .a_e_m .a_e_m .a_m_w,.a .a_e-r .a_e_m .a_e_m .a_m_w{margin:0 auto}}@media (max-width: 35.98em){.cs_p_n{text-indent:0;display:flex}._g-xs-none{display:block}.cg_f time .x_e_s:last-child{display:none}.scr-hdr__team.is-local .scr-hdr__team__wr{align-items:flex-start}.scr-hdr__team.is-visitor .scr-hdr__team__wr{align-items:flex-end}.scr-hdr__scr.is-ingame .scr-hdr__info:before{content:"";display:block;width:.75rem;height:.3125rem;background:#111;position:absolute;top:30px}}@media (max-width: 47.98em){.btn-xs{padding:.125rem .5rem .0625rem}.x .btn-u{border-radius:100%;width:2rem;height:2rem}.x-nf.x-p .ep_l{grid-column:2/4}.x-nf.x-p .x_u{grid-column:4/5}.tpl-h-el-pais .btn-xpr{display:inline-flex}.tpl-h-el-pais .btn-xpr+a{display:none}.tpl-h-el-pais .x-nf.x-p .x_ep{display:flex}.tpl-h-el-pais .x-nf.x-p .x_u .btn-2{display:inline-flex}.tpl-ad-bd{margin-left:.625rem;margin-right:.625rem}.tpl-ad-bd .ad-nstd-bd{height:3.125rem;background:#fff}.tpl-ad-bd ._g-o{padding-left:.625rem;padding-right:.625rem}.a_k_tp_b{position:relative}.a_k_tp_b:hover:before{background-color:#fff;content:"\a0";display:block;height:1.0625rem;position:absolute;top:1.375rem;transform:rotate(128deg) skew(-15deg);width:.9375rem;box-shadow:-2px 2px 2px #00000017;border-radius:.125rem;z-index:10}} Ir al contenido
_
_
_
_
Inteligencia artificial
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

¿A cuántos niños más tiene que matar la IA?

Es nuestra responsabilidad diseñar y gobernar esta tecnología para que respete los derechos humanos

NEGOCIOS 01/06/2025 LAB 02

El 28 de febrero de 2024, Se­well Setzer III, un chico de 14 años de Florida, se suicidó a instancias de un personaje realista de inteligencia artificial (IA) generado por Character.AI, una plataforma que al parecer también alberga chatbots de IA pro­anorexia que fomentan los trastornos alimentarios entre los jóvenes. Está claro que se necesitan urgentemente medidas más estrictas para proteger a los niños y jóvenes de la IA.

Por supuesto, incluso en términos estrictamente éticos, la IA tiene un inmenso potencial positivo, desde la promoción de la salud y la dignidad humanas hasta la mejora de la sostenibilidad y la educación entre las poblaciones marginadas. Pero estos beneficios prometidos no son excusa para restarles importancia a los riesgos éticos y los costos en el mundo real, o para negarlos. La tragedia de Setzer no es un caso aislado. En diciembre, dos familias de Texas presentaron una demanda contra ­Character.AI y su patrocinador financiero, Google, alegando que los chatbots de la plataforma abusaban sexual y emocionalmente de sus hijos, provocando autolesiones y violencia.

Ya hemos visto esta película antes, después de haber sacrificado a una generación de niños y adolescentes a manos de las empresas de redes sociales que se benefician de la adicción a sus plataformas. Hemos despertado con lentitud a los daños sociales y psicológicos causados por los “medios antisociales”. Ahora, muchos países están prohibiendo o restringiendo el , y los propios jóvenes exigen una regulación más estricta. Pero no podemos pretender frenar el poder manipulador de la IA. El potencial de abuso es enorme. Las IA saben exactamente qué botones presionar para explotar nuestros deseos o hacer que votemos de una determinada manera. Los chatbots proanorexia de Character.AI no son más que el último y más escandaloso ejemplo. No hay ninguna buena razón para no prohibirlos de inmediato.

Sin embargo, se está acabando el tiempo, porque los modelos de IA generativa se han desarrollado más rápido de lo esperado —y, en general, están cobrando velocidad en la dirección equivocada—. El padrino de la IA, el científico cognitivo y ganador del Premio Nobel Geoffrey Hinton, continúa advirtiendo que esta tecnología podría conducir a la extinción humana. “Lo único que puede obligar a esas grandes empresas a investigar más sobre seguridad es la regulación gubernamental”, recuerda.

Dada la incapacidad de las grandes empresas tecnológicas para cumplir con normas éticas, es una locura esperar que se vigilen a sí mismas. Google invirtió 2.700 millones de dólares en Character.AI en 2024 a pesar de sus problemas conocidos. Pero si bien la regulación es obviamente necesaria, la IA es un fenómeno global, lo que significa que deberíamos esforzarnos por lograr la aprobación de una regulación global, anclada en un nuevo mecanismo de cumplimiento global, como una agencia internacional de sistemas basados en datos (IDA) en las Naciones Unidas, como he propuesto.

El hecho de que algo sea posible no significa que sea deseable. Los seres humanos tenemos la responsabilidad de decidir qué tecnologías, qué innovaciones y qué formas de progreso deben realizarse y ampliarse, y cuáles no. Es nuestra responsabilidad diseñar, producir, utilizar y gobernar la IA de forma que respete los derechos humanos y facilite un futuro más sostenible. Es casi seguro que Setzer seguiría vivo si hubiera existido una regulación global para promover una IA basada en los derechos humanos, y si se hubiera creado una institución global para supervisar las innovaciones en este ámbito. Garantizar que se respeten los derechos humanos y los derechos de los niños exige la gobernanza de todo el ciclo de vida de los sistemas tecnológicos.

Dado que ya sabemos que la IA puede matar, no tenemos excusa para permanecer pasivos mientras la tecnología sigue avanzando, con más modelos no regulados que se lanzan al público cada mes.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad , así podrás añadir otro . Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_