Buscador
Ver revista digital
Actualidad

Estos son los riesgos de la Inteligencia Artificial para 2025

26-12-2024, 10:43:39 AM Por:
Estos son los riesgos de la Inteligencia Artificial para 2025
© Especial

Al no existir una regulación para evitar los posibles daños que puede provocar esta tecnología, somos los individuos quienes debemos de estar alertas.

Las suplantaciones de identidad a través de imágenes hiperrealistas, el aumento acelerado del uso de datos sintéticos, la vulneración de la privacidad de los individuos, y la explotación ilícita o irregular de contenidos, son los principales riesgos que plantea la Inteligencia Artificial (IA) para el próximo año.

Ante los avances de esta tecnología que, ciertamente tiene numerosas ventajas, también es importante resaltar sus aspectos negativos, considerando que en la mayoría de las naciones no existe una regulación específica para evitar los posibles daños que pueden provocarse con los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés).

Las alertas incluyen aspectos tan sencillos como detectar cuando un contenido no es una creación humana original, sino una producción de un sistema de Inteligencia Artificial Generativa (IAG), hasta las profundas afectaciones que puede implicar la pérdida de nuestra privacidad mental.

Los sesgos discriminatorios, junto con los errores o alucinaciones de la IAG también deben preocuparnos, sobre todo por el incremento exponencial que tendrá el uso de datos sintéticos, ante el agotamiento de los contenidos con los que se entrenan los ahora llamados “asistentes virtuales”, que son los chats de IAG como ChatGPT, de la empresa OpenaAI; Copilot de Microsoft, o Gemini de Google.

Implicaciones éticas y de seguridad

Los datos sintéticos son todos los contenidos que produce la Inteligencia Artificial Generativa. Es decir, los textos, voces, imágenes y videos que emulan a las creaciones humanas, pero que se generan con IA a partir de las indicaciones (prompts) que se le proporcionan a este tipo de sistemas.

Para que los chats de IA sigan avanzando en su entrenamiento se necesitan datos actuales y de calidad, el problema es que estos ya se están agotando. Las principales empresas de Inteligencia Artificial prevén llegar a un punto crítico en el año 2026, aunque este podría adelantarse a partir de 2025.

La solución que las mismas compañías han planteado es utilizar datos sintéticos para seguir entrenando a la IAG, pero en esto hay que considerar que esos contenidos que produjeron los chats pueden estar sesgados, ser erróneos o inexactos, o tener una fuente original que se uso violando los derechos de autor.

Por ende, alimentar a la IAG con los datos que esta misma ha producido tiene implicaciones éticas, legales y de seguridad. Por ejemplo, un sistema cuya información más actual se deriva de productos sintéticos que no son del todo exactos, puede propiciar que se tomen decisiones equivocadas, sobre todo si son empresas las que hacen uso de estos contenidos.

Suplantaciones de identidad

El próximo año también se intensificarán los fraudes a través de las denominadas identidades sintéticas, que son perfiles y cuentas falsas producidas con Inteligencia Artificial Generativa para cometer diversos delitos.

Si se compara una imagen o un video hechos con IAG en 2022, con los que se pueden producir en este 2024 que está por concluir, las diferencias son notorias: Las imágenes ya son hiperrealistas y permiten su utilización para evadir las medidas de seguridad de empresas comerciales y de la banca digital.

Otra forma de suplantación de identidad se realiza a través de los deepfakes o falsedades profundas, que son archivos de video, imagen o audio, generados con IA con el propósito de dañar a una persona, aunque también sirven para manipular a los receptores de dicho contenido.

Como los deepfakes seguirán avanzando en sofisticación en 2025, los delincuentes podrán tener más oportunidades para acceder a dispositivos electrónicos que utilizan el reconocimiento facial o biométrico. Por eso es necesario extremar precauciones al compartir nuestras imágenes en internet.

Recuerda que solo se necesita una fotografía que tú mismo hayas publicado en alguna red social para crear una deepfake o una identidad sintética.

Inferencias y neurotecnología

Las inferencias de información que son capaces de producir los chats de IAG también forman parte de los riesgos que plantea esta tecnología. Al robustecerse el avance de la Inteligencia Artificial, también es más fácil que estos sistemas obtengan contenidos sensibles para utilizarse con fines indebidos o fraudulentos.

Una inferencia se genera cuando deducimos y expresamos una información que desconocíamos, a partir de datos que previamente se nos hayan proporcionado. Como los modelos de lenguaje de gran tamaño se entrenaron con millones de textos e imágenes, la IAG es capaz de hacer inferencias cada vez más acertadas.

Quienes usan la IA para cometer delitos recopilan información que obtienen de redes sociales o páginas de internet propiedad de la víctima, con esos datos los sistemas pueden inferir los perfiles completos de las personas.

Por eso, en 2025 se debe poner especial atención en lo que publicamos en internet, evitando exponer datos personales que, aunque sean mínimos, pueden ser mal utilizados.

A su vez, un riesgo adicional de la Inteligencia Artificial es el que plantean los dispositivos neurotecnológicos, que son todos los instrumentos capaces de medir y alterar la actividad del sistema nervioso, los cuales no solo se usan en la medicina, sino que también ya están en numerosas aplicaciones, aparentemente inofensivas, que en realidad ponen en peligro la privacidad.

La neurotecnología de consumo para el público en general son productos relacionados con el bienestar y el entretenimiento, como los cascos, diademas, pulseras y audífonos, entre otros, que se usan para actividades lúdicas.

Estos dispositivos pueden recabar información personal sensible, como nuestro ritmo cardiaco, y también son capaces de recopilar datos neuronales poniendo en peligro nuestra privacidad mental.

La Fundación Neuroderechos (Neurorights Foundation) advierte que, conforme avanza la tecnología, la mercantilización de los datos cerebrales igualmente se incrementará, creando escenarios muy preocupantes para los derechos humanos, pues los datos neuronales contienen información muy sensible sobre la salud mental y física, la personalidad, y el procesamiento cognitivo de los usuarios.

Lo último:

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.

Comentarios