PUBLICIDAD
Inteligencia Artificial: ¿Por qué un grupo de expertos consideran que es un gran riesgo para la humanidad?
Imagen
Fecha Actualización
Si el 2023 fue el año de la popularización de la Inteligencia Artificial, el 2024 fue el año de su consolidación. Sin duda fue la aparición de ChatGPT, la herramienta creada por Open AI, la “culpable” de su expansión o por lo menos que usuario hasta hace pocos ignorantes de tal tecnología comiencen a saber de ella e incluso, a usarla. A la fecha, son varias las herramientas de IA (que aprovechan algoritmos de aprendizaje automático y redes neuronales para imitar funciones cognitivas humanas) que ya forman parte del día a día. A ChatGPT se ha unido Google Bard, Dall-E. MIdjourney, entre otras.
Sin embargo, entre la euforia que existe por estos días, también han aparecido señales de alerta. Y no cualquiera. Hace unos días se conoció que un grupo de empleados actuales y anteriores de la ya famosa Open AI se sumaron a otros trabajadores de empresas de IA para advertir que esta tecnología planea graves riesgos para la humanidad.
Imagen
Son en total 13 personas las que firman esta carta dirigida a las empresas que están a la vanguardia del desarrollo de esta tecnología. En una mirada general, piden que el debate sobre este tema sea abierto, más incisivo y cuenten con una mayor supervisión. ¿Las razones? Explican que la IA puede exacerbar la desigualdad , aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas.
Tal como lo indica un informe de The Washington Post, estos reclamos ocurren mientras vemos la salida de trabajadores importantes de empresas como Open Ai, que tuvo que ver irse a su cofundador, Ilya Sutskever, y el investigador senior Jan Leike. El diario estadounidense cita a otro ex empleado de Open AI que señaló que dejó la compañía debido que no tomaban en cuenta los riesgos por la Inteligencia Artificial. “Perdí la esperanza de que actuaran de manera responsable, particularmente en lo que respecta a la inteligencia artificial general”, dijo el empleado.
Frente a la carta de advertencia sólo algunas compañías se animaron a dar comentarios. Liz Bourgeois, portavoz de OpenAI, dijo que la compañía está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”.
Imagen
ÉPOCAS DE DESINFORMACIÓN
Por otro lado, otro grupo de expertos hizo también un llamado de atención a la desinformación causada por el uso de la IA. En específico, precisa que esta tecnología permite generar millones de mensajes en pocas horas y discusiones falsas en foros, lo que multiplica a un coste menor el impacto de la desinformación y de las operaciones de injerencia extranjera.
En plenas elecciones en la Unión Europea (llevadas a cabo el último domingo), hubo “una masificación general” de contenidos procedentes del extranjero y la IA “es una nueva etapa en la cadena de automatización de esas publicaciones que permite masificar la producción”, explicó a la agencia AFP Valentin Chatelet, del laboratorio de análisis digital de Atlantic Council (DFRLab).
Por otro lado, según los datos del colectivo Antibot4Navalny, que rastrea las operaciones de influencia digital vinculadas a Rusia, miles de bots (cuentas automáticas) se utilizan diariamente para propaganda prorrusa en la red social X.
OpenAI indicó a finales de mayo que grupos de influencia rusos, chinos, iraníes y una “empresa comercial de Israel” utilizaron sus programas para intentar manipular la opinión pública en otros países. Los contenidos producidos abarcaban una “amplia gama de temas, entre ellos la invasión de Ucrania, el conflicto de Gaza (o) las elecciones indias” e incluían “principalmente texto y a veces imágenes, como dibujos” satíricos, según OpenAI.
El futuro de la IA, como vemos, continúa incierto. Quizás el camino más necesario sea el que plantean los exempleados de las grandes compañías tecnológicas: mayor debate y transparencia. El momento es ahora.
ESTE VIDEO TE PUEDE INTERESAR
PUBLICIDAD
ULTIMAS NOTICIAS
Imagen
Imagen
Imagen
PUBLICIDAD