5 desafíos de inteligencia artificial generativa en 2024 : Digitall Post
Internacional 2024 desafios inteligencia artificial tecnologia

5 desafíos de inteligencia artificial generativa en 2024

Redacción

Por: Redacción

hace 9 meses

5 desafíos de inteligencia artificial generativa en 2024

Imagen: Cortesía

  • ESET, compañía líder en detección de amenazas, advirtió que, aunque el futuro es prometedor para cada uno de los campos donde la inteligencia artificial puede ser aplicada, existen riesgos vinculados a la adopción de esta tecnología y desafíos que se enfrentan al usarla.
  • Cuidar la moderación de contenidos, poner atención a leyes de derechos de autor y proteger la privacidad de los usuarios son algunos de estos desafíos.
  • Una de las estrategias para abordar estos desafíos es el desarrollo de modelos de filtrado y moderación que pueden eliminar contenido inapropiado, engañosos o sesgos generado por IA.

Aunque la inteligencia artificial ha beneficiado a empresas y otras industrias, se considera que tiene algunos errores que pueden convertirse en un riesgo en cuanto al contenido que genera; para 2024, es necesario abordar estos desafíos al usar inteligencia artificial (IA).

ESET, compañía líder en detección de amenazas, advirtió que, aunque el futuro es prometedor para cada uno de los campos donde la IA puede ser aplicada, existen riesgos vinculados a la adopción de esta tecnología.

“La IA Generativa presenta riesgos particulares que deben abordarse de manera cuidadosa para garantizar su uso ético y seguro», dijo David González Cuautle, Investigador de Seguridad Informática de ESET Latinoamérica.



«Estos riesgos incluyen desde la moderación del contenido que suben los usuarios, hasta aquel engañoso, sesgado o perjudicial para evitar la manipulación de información.”, agregó.

Te presentamos algunos de estos desafíos.

Desafíos en la inteligencia artificial generativa

1. Cuidar la moderación de contenidos

Aún cuando las redes sociales, sitios web o aplicaciones cuenten con términos de uso, normas de comunidad y políticas de privacidad, en lo que se refiere al contenido subido por usuarios, como ideas hechas por terceros, existen violaciones a los derechos de autor.

2. Poner atención a las leyes de derechos de autor e imagen

En mayo de 2023, se reprodujo contenido sin consentimiento de actores y actrices al utilizar su rostro y voz para fines comerciales sin ningún contrato que los protegiera de la explotación de su identidad y talento.



Los derechos de autor fueron ignorados por grandes compañías y se generó una enorme molestia; que fue uno de los desencadenantes de la Huelga de Actores y Guionistas.

3. Proteger la privacidad de sus usuarios

La inteligencia artificial se entrena con grandes volúmenes de datos, y puede tomar los datos desde cualquier fuente pública, sin el consentimiento del titular.

Según ESET, las plataformas, aplicaciones y redes sociales deberían apegarse al marco normativo sobre la privacidad de datos de cada país, en caso de existir; también es necesario seguir el Reglamento General de Protección de datos (GDPR) que incluye una sección para la IA.

4. Generar soluciones éticas

La inteligencia artificial puede ser aprovechada por algunos usuarios para fines anti-éticos como la suplantación de la identidad (en voz, imagen o video), para crear perfiles falsos que se usan para fraudes, extorsiones, phishing o catfishing en plataformas y redes sociales.

5. Impedir que exista la desinformación

Las prácticas de difusión de noticias falsas y la generación de datos y contenido históricamente incoherente es un tema que genera preocupación. Cuando el contenido engañoso se hace viral, llega a perjudicar la imagen de alguna persona, comunidad, país, gobierno o empresa, loque puede generar confusión y sesgos.

ESET afirmó que era necesario promover la educación pública sobre inteligencia artificial, sus riesgos, beneficios y desafíos para comprender cómo funcionan estos modelos.

Además, planteó algunas estrategias preventivas para abordar los riesgos de su uso, tales como el desarrollo de modelos de filtrado y moderación que pueden eliminar contenido inapropiado, engañoso o sesgos generado por IA.

Otra solución es que los modelos de datos se entrenen con conjuntos de datos éticos, para reducir sesgos y generar contenido más equitativo; implementar mecanismos de evaluación continua generará mayor contenido ético y de calidad.

Conoce más historias en Digitallpost y Coolture.

Síguenos en FacebookTwitter e Instagram