Publicado 22/04/2026 10:01

Ciencia.-La IA generativa puede reducir los costes de sistemas de aprendizaje automático, pero aumenta los riesgos de ciberates

Archivo - ILLUSTRATION - 22 October 2025, Mecklenburg-Western Pomerania, Schwerin: A smartphone screen shows several AI applications, including ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok, and DeepSeek. Artificial intelligence ap
Archivo - ILLUSTRATION - 22 October 2025, Mecklenburg-Western Pomerania, Schwerin: A smartphone screen shows several AI applications, including ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok, and DeepSeek. Artificial intelligence ap - Philip Dulian/dpa - Archivo

MADRID 22 Abr. (EUROPA PRESS) -

Usar IA generativa para diseñar, entrenar o ejecutar pasos dentro de un sistema de aprendizaje automático tiene tantos beneficios como riesgos, según un experto de la Heriot-Watt University (Reino Unido).

En concreto, en un artículo publicado en la revista 'Patterns de Cell Press', el científico informático Michael Lones, defiende que si bien los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) podrían ampliar las capacidades de los sistemas de aprendizaje automático y reducir los costos y la necesidad de mano de obra, su uso disminuye la transparencia y el control para las personas que desarrollan y utilizan estos sistemas, y aumenta el riesgo de ciberataques maliciosos, fugas de datos y sesgos contra grupos subrepresentados.

"Los desarrolladores de aprendizaje automático deben ser conscientes de los riesgos de usar IA generativa en el aprendizaje automático y encontrar un equilibrio sensato entre las mejoras en las capacidades y los riesgos que esto podría conllevar", argumenta Lones. "Dadas las limitaciones actuales de la IA generativa, diría que este es un claro ejemplo de que el hecho de que se pueda hacer algo no significa que se deba hacer".

Los sistemas de aprendizaje automático son algoritmos que aprenden a reconocer patrones en los datos, los cuales pueden utilizar para realizar predicciones y tomar decisiones sobre nuevos datos. El aprendizaje automático existe desde hace décadas y la mayoría de las personas lo encuentran en su vida diaria en forma de filtros de spam, recomendaciones de productos en sitios web de comercio electrónico y noticias en redes sociales.

En los últimos dos años, aproximadamente, se ha impulsado la incorporación de la IA generativa (en forma de modelos de aprendizaje automático) a los sistemas de aprendizaje automático, pero hacerlo conlleva riesgos y limitaciones que los desarrolladores y el público en general deben conocer, afirma Lones.

En este trabajo, Lones explora cuatro formas en que la IA generativa se está aplicando actualmente en el aprendizaje automático: como componente dentro de un proceso de aprendizaje automático, para diseñar y programar procesos de aprendizaje automático, para sintetizar datos de entrenamiento y para analizar los resultados del aprendizaje automático.

Según Lones, todas estas aplicaciones conllevan riesgos, y estos riesgos se agravan si los modelos de aprendizaje automático se utilizan para múltiples tareas dentro de un sistema de aprendizaje automático, o si son "agentes", es decir, si pueden utilizar de forma autónoma herramientas externas para resolver problemas.

"Si GenAI funciona de diversas maneras dentro de tus flujos de trabajo o sistema de aprendizaje automático, puede interactuar de formas impredecibles y difíciles de comprender", apunta Lones. "Mi consejo actual es evitar añadir demasiada complejidad al uso de GenAI en el aprendizaje automático, sobre todo si te encuentras en un sector con mucho en juego que afecta a la vida y el sustento de las personas".

Uno de los mayores riesgos es que, en ocasiones, los LLM cometen errores, toman malas decisiones y fabrican o "alucinan" información. Lones afirma que estos errores no son necesariamente predecibles y pueden ser difíciles de evaluar debido a la falta de transparencia de los LLM, lo que supone un problema adicional para el cumplimiento legal.

"En áreas como la medicina o las finanzas, existen leyes que exigen demostrar la fiabilidad del sistema de aprendizaje automático y explicar cómo llega a sus decisiones", afirma Lones. "En cuanto se empiezan a usar modelos de aprendizaje automático, esto se vuelve muy difícil, porque son muy opacos".

Lones aconseja a los desarrolladores de aprendizaje automático que siempre evalúen manualmente el código y los resultados generados por los sistemas de aprendizaje automático. También advierte que los sistemas de aprendizaje automático más grandes, alojados remotamente, suelen almacenar y compartir datos, lo que significa que su uso abre la puerta a brechas de ciberseguridad y a la filtración de datos e información confidencial.

"Es importante que el público en general sea consciente de las limitaciones de los sistemas GenAI", advierte Lones. "Las empresas implementarán estos sistemas para, por ejemplo, reducir costes, lo que puede mejorar la experiencia de los usuarios finales, pero también puede tener consecuencias negativas, como sesgos e injusticias".

Contador

Contenido patrocinado