/getHTML/media/1237526
¿Sacaron del cargo a fiscal Peralta? | La Voz del 21
/getHTML/media/1237508
Hugo de Zela sobre viaje a EE.UU.: "Se intentó explicar al Congreso, pero Dina no quiso"
/getHTML/media/1237506
Abraham Levy: "Hay mucho desinterés sobre los incendios forestales"
/getHTML/media/1237486
Benji Espinoza abogado de Fiscal Elizabeth Peralta: "Nos allanamos a lo que decida la Fiscalía"
/getHTML/media/1237484
Darío Sztajnszrajber, filósofo: "Aprendamos a vivir el amor también con sus sombras"
/getHTML/media/1237374
Abogado de 'Culebra': " Santiváñez quiere pasar al retiro al capitán Izquierdo"
/getHTML/media/1237194
Congreso niega viaje a Dina por incendios | La Voz del 21
/getHTML/media/1237192
Luis Vargas Valdivia sobre 'Chibolín': "Fiscalía podría evaluar organización criminal"
/getHTML/media/1237191
Marco Antonio La Rosa: "Necesitamos una declaratoria de emergencia por incendios"
/getHTML/media/1237190
Igor Mostovenko, modelo: "No le diría nada a Putin porque está enfermo" en La del Estribo
/getHTML/media/1237030
Diego Barragán y el éxito de la estrategia de Qroma en Marcas y Mercados
/getHTML/media/1237029
Cecilia Valenzuela sobre Summum: "La gastronomía peruana es la mejor expresión de nuestro mestizaje"
/getHTML/media/1237023
Fiscalía levantará las comunicaciones de 'Chibolín'
/getHTML/media/1237021
Carlos Basombrío: "No hay liderazgo en el Ministerio del Interior"
/getHTML/media/1237011
José Carlos Nieto de Sernanp sobre incendios forestales: "El oso de anteojos es una de las especies en peligro"
/getHTML/media/1236987
Carlos Neuhaus, presidente del PPC: "Hay que fomentar que los partidos se junten"
/getHTML/media/1236984
Tefi Valenzuela: ‘’Debes saber satisfacerte sin necesidad de un hombre’’
/getHTML/media/1236566
¿Le anularán el caso Rolex a Dina Boluarte?
/getHTML/media/1236567
Yván Montoya analiza el hábeas corpus de Dina Boluarte
/getHTML/media/1236524
¿Qué opinan los peruanos de Alberto Fujimori? en Ciudadanos y Consumidores
/getHTML/media/1236426
César Campos: ¿Fuerza Popular será lo mismo sin Alberto Fujimori?
/getHTML/media/1235910
Andy Carrión sobre 'Chibolín': ¿De dónde viene la fortuna de Andrés Hurtado?
/getHTML/media/1235889
Jeremías Gamboa y la conquista de Lima en Ciudad de Cuentos
PUBLICIDAD

Alto AI: Parlamento Europeo aprobó primera regulación de las tecnologías de Inteligencia Artificial

Conocida como ‘Ley Europea de IA’, la aprobación de este reglamento marca un hito en la carrera entre las autoridades gubernamentales para regular la IA, que viene evolucionando a una velocidad vertiginosa.

Imagen
Fecha Actualización
El advenimiento de la Inteligencia Artificial (AI, por sus siglas en inglés) en el mundo ha generado una serie de cambios a los que los usuarios deberán acostumbrarse. Esta tecnología se expande a gran velocidad en distintos nichos debido, principalmente, a la versatilidad que tiene de adaptarse y ofrecer soluciones a distintas necesidades de manera automática y cada vez más eficiente.
Sin embargo, la rápida expansión e impacto de esta novedosa tecnología es un tema que sigue generando debate, pues nos encontramos ante un escenario completamente nuevo y que se viene transformando en tiempo real.
Ante esta incertidumbre, no es de extrañar que las regulaciones políticas exclusivas para esta tecnología empiecen a debatirse en distintos foros, gubernamentales o académicos. El primer paso lo ha dado el Parlamento Europeo, que recientemente ha aprobado una regulación de inteligencia artificial, la primera de su tipo, y que está muy cerca de convertirse en ley.
Imagen

Alto a la Acción

Conocida como ‘Ley Europea de IA’, se trata de un conjunto de disposiciones que adopta un enfoque basado en el riesgo para regular esta tecnología donde se especifican los requisitos para los proveedores de los llamados “modelos básicos” como ChatGPT, que se han convertido en una preocupación clave, debido a los cambios que están generando en ámbitos esenciales de la vida humana como, por ejemplo, el laboral y el académico
Esta ley clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.
“En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular”, se lee en la web oficial de la propuesta de Ley.
Las aplicaciones de riesgo inaceptable están prohibidas de forma predeterminada y no se pueden implementar en el bloque. Estas incluyen:
Sistemas de IA que utilizan técnicas subliminales o técnicas de manipulación o engañosas para distorsionar el comportamientoSistemas de IA que explotan las vulnerabilidades de individuos o grupos específicosSistemas de categorización biométrica basados en atributos o características sensiblesSistemas de inteligencia artificial utilizados para la calificación social o la evaluación de la confiabilidadSistemas de IA utilizados para evaluaciones de riesgo que predicen infracciones penales o administrativasSistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de raspado no dirigidoSistemas de inteligencia artificial que infieren emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y la educación
Por su parte, no son pocas las herramientas de IA pueden considerarse de alto riesgo, como las que se utilizan en infraestructura crítica, aplicación de la ley, la educación, la migración o la seguridad de los productos.
Por encontrarse a un nivel por debajo de las “inaceptables”, estas herramientas no están prohibidas del todo, pero probablemente se verán obligadas a completar rigurosas evaluaciones de riesgo, registrar sus actividades y poner la información que obtengan a disposición de las autoridades.

¿POR QUÉ LA LEY?

Entre las justificaciones que se presentaron, la principal fue la preocupación ante el rápido desarrollo de diferentes herramientas en las que se implementa la IA. Resulta que se ha dejado que las empresas privadas desarrollen tecnologías de inteligencia artificial a su gusto y conveniencia, lo que ha dado lugar a sistemas como Microsoft ChatGPT de OpenAI y Bard de Google, novedosos chatbots que han cautivado a multitud de usuarios por su capacidad para producir respuestas similares a las humanas gracias a sus modelos de lenguaje.
Incluso, Google anunció ya una serie de actualizaciones de sus sistemas de IA, incluido un modelo de lenguaje avanzado llamado PaLM 2, que según la compañía supera a otros sistemas líderes en algunas tareas.
Pero esta tecnología ha existido durante años y está integrada en más aplicaciones y sistemas de lo que se cree. Es una IA la que determina qué videos virales o imágenes vemos en nuestras cuentas de TikTok o Instagram, por ejemplo.
Imagen

¿HABRÁ SANCIONES?

Según lo que se lee en las propuestas, las empresas que infrinjan la Ley AI enfrentarán multas de hasta 30 millones de euros o incluso el 6% de las ganancias globales, que multiplicarían la multa considerablemente.
Es decir, para una empresa como Microsoft que maneja el ya conocido ChatGPT, creado por la desarrolladora OpenAI, podría significar una multa de más de 10 mil millones de dólares si se descubre que viola alguna de las reglas establecidas en la ley.
Estas regulaciones han incomodado a la industria tecnológica, pues podrían afectar a algunas usos elementales de las IA que son francamente inofensivos. “Es preocupante ver que amplias categorías de aplicaciones útiles de IA, que plantean riesgos muy limitados, o ninguno en absoluto, ahora enfrentarán requisitos estrictos, o incluso podrían prohibirse en Europa”, refirió a CNBC Boniface de Champris, gerente de políticas de la Asociación de la Industria de la Computación y las Comunicaciones de Europa (CCIA por sus siglas en inglés).
Imagen

DATOS
Si bien la industria espera que la Ley se apruebe este año, no hay una fecha límite concreta. La ley está siendo discutida por los parlamentarios y, una vez que lleguen a un terreno común, habrá un diálogo tripartito entre representantes del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea.Una vez finalizados los términos, habría un período de gracia de alrededor de dos años para permitir que las partes afectadas cumplan con las regulaciones.China, por su parte, ha desarrollado un borrador de reglas diseñado para supervisar cómo las empresas desarrollan productos de IA generativa como ChatGPT.
Con información de la Unión Europea, Reuters, CNBC.

VIDEO RECOMENDADO