
Foto: Freepik
Empresas y administraciones públicas perciben que la complejidad tecnológica, particularmente la relacionada con la inteligencia artificial (IA) es una de las barreras principales para disponer de una estrategia robusta de ciberseguridad.
La multinacional estadounidense Palo Alto Networks presentó el pasado 10 de abril los resultados de un estudio de mercado realizado entre casi 500 directivos y responsables de seguridad de empresas u organizaciones públicas de España, Alemania, Francia y Reino Unido para identificar los principales desafíos de ciberseguridad en 2025.
Dichos resultados se dieron a conocer durante el evento anual que esta empresa —cuya sede principal está en California (Estados Unidos), pero que está presente en 150 países y factura unos ocho mil millones de dólares anuales— celebró en Madrid, España, en esta fecha.
El estudio revela que el 63 por ciento de los encuestados identifica las amenazas basadas en IA como el mayor riesgo este año; y aunque casi la mitad (el 42 por ciento) ya han avanzado en la consolidación de soluciones, en la mayoría de las entidades sigue existiendo una brecha muy grande entre la intención y la acción.
LA FRÁGIL SITUACIÓN GEOPOLÍTICA MUNDIAL
El responsable de Palo Alto Networks para Europa, Oriente Próximo, África y Latinoamérica, Helmut Reisinger, subrayó durante un encuentro con los medios de comunicación el progresivo aumento de las vulnerabilidades en ciberseguridad, contextualizando ese incremento en una situación geopolítica mundial “frágil” que incluye la irrupción de la inteligencia artificial y la digitalización global.
Los datos facilitados por la compañía revelan que, hace algunos años, los ciberataques que sufrían las empresas u organismos públicos se fraguaban y prolongaban durante varios días, mientras que en la actualidad se consuman en menos de un día (en un 50 por ciento de los casos) e incluso en pocas horas (en el 20 por ciento de los casos).
Durante la jornada celebrada en Madrid, intervinieron varios responsables de ciberseguridad en diversos sectores (como el juego, la salud o la seguridad informática), que expusieron cómo las empresas se enfrentan a amenazas cada vez más sofisticadas y a adversarios potenciados por la inteligencia artificial, pero también cómo pueden utilizar esta tecnología para fortalecer su resiliencia cibernética.
En el evento anual participó también la exsecretaria de Estado de Digitalización e Inteligencia Artificial en España, Carme Artigas, actualmente copresidenta del Consejo Asesor de la IA en la ONU, quien advirtió que la inteligencia artificial es la única industria o tecnología actual que puede seguir evolucionando “incluso sin intervención humana”.
Artigas defendió la necesidad “imperiosa” de la regulación en esta materia, para asegurar que su desarrollo y utilización brinden la misma confianza y tranquilidad que una persona puede tener cuando entra en un restaurante o al subirse a un vehículo.
Por otra parte, en materia de ciberseguridad, destacó las bondades de la inteligencia artificial para la detección temprana de amenazas, para automatizar respuestas, mitigar los incidentes o gestionar las vulnerabilidades, aunque también admitió que la IA puede estar detrás de muchos ataques o de las brechas éticas y legales, con sistemas que violan la privacidad, hacen análisis no consentidos de los datos personales o usan materiales con derechos de autor.
PROPIEDAD INTELECTUAL
Respecto a la violación de derechos de autor para “alimentar” a los sistemas de IA, el expresidente del partido nacionalista irlandés, Sinn Féin Gerry Adams, acusó a Meta, matriz de Facebook, Instagram y Whatsapp, de usar varios de sus libros para desarrollar modelos de inteligencia artificial.
“Meta ha usado muchos de mis libros sin mi permiso. He puesto este asunto en manos de mi abogado”, explicó el histórico político norirlandés en un comunicado difundido en la misma fecha del evento de Palo Alto Networks en Madrid.
La formación nacionalista precisó que el gigante tecnológico ha accedido ilegalmente al contenido de al menos siete obras de Adams, entre las que figuran una autobiografía, un libro sobre el proceso de paz en Irlanda, una colección de relatos cortos y hasta un texto sobre cocina.
Esta denuncia se une a la de otros autores que ya han emprendido acciones legales contra Meta por violar los derechos de los creadores para entrenar a su sistema de inteligencia artificial generativa (Gen-AI), Llama.
Las demandas señalan, entre otras irregularidades, que Llama ha sido entrenada con sus trabajos, los cuales presuntamente fueron adquiridos mediante “bibliotecas fantasmas”, es decir, sitios web que no cuentan con los permisos de los creadores, como Bibliotik, Library Genesis (LibGen) o Z-Library.
En este sentido, una investigación de la revista The Atlantic reveló que la compañía de Mark Zuckerberg habría accedido a millones de libros y artículos de investigación pirateados a través de LibGen para avanzar en el desarrollo de Llama.
Meta, a este respecto, aseguró en otro comunicado que “respeta los derechos de propiedad intelectual de terceros” y subrayó que el uso de la información “para entrenar modelos de IA es coherente con la legislación vigente”. Es decir, en el documento básicamente se admite el aprovechamiento de huecos legales para entrenar a los modelos de IA mediante el uso indebido de propiedad intelectual.
IA ALEJADA DEL BIEN COMÚN
Otra cuestión problemática es que la mayoría de empresas de inteligencia artificial no se centran en problemas o sectores específicos, lo que diluye su propósito de contribuir al bien común, según un análisis del Instituto de Investigación de Políticas Públicas (IPPR, por sus siglas en inglés), difundido el 8 de abril.
El estudio, realizado con más de tres mil empresas del sector en Reino Unido, revela que el 85 por ciento de estas no se centran en problemas específicos, sino que ofrecen soluciones genéricas de IA.
“Demasiadas empresas se centran en mejorar procesos empresariales ya existentes (...) mientras que muy pocas se centran en crear algo nuevo y emocionante, como innovaciones muy necesarias que aborden la mala salud en las primeras etapas de la vida”, se lee en un comunicado.
El laboratorio de ideas británico sostiene además que las compañías no contribuyen directamente al bienestar de la población, “a pesar de que muchas se han beneficiado en algún momento de fondos públicos”.
Mientras que una de cada cinco empresas recibe fondos públicos, sólo el 15 por ciento de ellas se dedica a resolver problemas sociales concretos, como mejorar el transporte sostenible o los sistemas de salud.
“Este enfoque de la cantidad por encima de la calidad, del beneficio por encima del objetivo, de la velocidad por encima de la sustancia, es una gran oportunidad perdida”, dijo Carsten Jung, responsable de IA del IPPR.
Aun así, el IPPR sostiene que Reino Unido se encuentra en una posición prometedora para aprovechar sus puntos fuertes como centro de innovación en IA, al menos si orienta mejor sus objetivos. Por ello, el laboratorio de ideas pidió al gobierno británico la creación de una Unidad de Seguimiento de la Inteligencia Artificial para determinar qué tipos de despliegue de esta tecnología se están produciendo y dónde están las lagunas en su desarrollo.
IMPACTO AMBIENTAL
Pero quizás uno de los mayores riesgos de la IA es su impacto sobre el medio ambiente. Por ejemplo, la reciente tendencia en redes sociales de transformar fotografías al estilo de Studio Ghibli ha capturado la atención de millones de usuarios en todo el mundo. Estas imágenes han permitido a las personas reimaginar sus recuerdos y momentos cotidianos con la magia del famoso estudio de animación japonés.
Sin embargo, detrás de esta moda aparentemente inofensiva, se esconde un significativo consumo de recursos naturales, especialmente de agua. Esto plantea interrogantes sobre la sostenibilidad de la inteligencia artificial y su impacto ecológico.
Cada interacción con herramientas de IA requiere una infraestructura tecnológica compleja basada en centros de datos con miles de servidores. Estos equipos generan gran cantidad de calor, por lo que necesitan sistemas de refrigeración eficientes.
Muchos de estos sistemas utilizan agua para enfriar los servidores, mediante torres de enfriamiento donde el agua absorbe el calor y se evapora. Aunque efectivo, este método implica un consumo considerable del líquido. Herramientas como ChatGPT utiliza alrededor de 500 mililitros de agua por cada serie de entre cinco y 50 interacciones, según las últimas estimaciones.
Estudios recientes revelan cifras preocupantes sobre el consumo hídrico de la inteligencia artificial. La OCDE estima que, para 2027, la IA podría utilizar entre 4.2 y 6.6 mil millones de metros cúbicos de agua al año. Esta cifra supera el uso anual de países como Dinamarca y alcanza la mitad del consumo de Reino Unido.
Grandes empresas tecnológicas han reportado aumentos significativos en este aspecto. Microsoft, por ejemplo, reconoce que incrementó su consumo de agua en un 34 por ciento en 2022, en parte por el entrenamiento de modelos como ChatGPT. Google utilizó entre seis y siete millones de metros cúbicos ese año, y Meta alcanzó los dos millones. Esta tendencia muestra cómo el crecimiento de esta tecnología está estrechamente ligado a un mayor uso de recursos naturales.
La portavoz de energía, clima y movilidad de Greenpeace en España, María Prado, explica en entrevista que el agua en los centros de datos se utiliza para tres procesos: refrigeración, fabricación de microchips y generación de electricidad. Esta última necesita “mucha más agua que la refrigeración en sí”.
No todas las herramientas de IA tienen el mismo impacto ambiental. Modelos como ChatGPT, DALL·E o Midjourney, difieren en sus procesos operativos y, por ende, en su consumo de recursos, aunque todos son impulsados por inteligencia artificial. La generación de imágenes de alta calidad implica procesar complejos algoritmos y manejar grandes volúmenes de datos, lo que puede resultar en un mayor consumo energético y, por ende, de agua.
HACIA UN USO RESPONSABLE
Ante este escenario, los expertos consideran que es clave que empresas y usuarios tomen conciencia del impacto ambiental del uso de IA. Las compañías deben apostar por prácticas sostenibles, como desarrollar algoritmos más eficientes, usar sistemas de enfriamiento con menor consumo hídrico y recurrir a energías renovables.
Algunas ya están actuando. Microsoft, por ejemplo, busca ser positiva en agua para 2030, reponiendo más agua de la que utiliza mediante proyectos de eficiencia y restauración de ecosistemas, según la propia empresa.
Sin embargo, María Prado remarca que la huella ecológica real está invisibilizada, ya que las grandes compañías tecnológicas “no están obligadas a publicar los datos completos”, lo que significa una falta de transparencia. La portavoz de Greenpeace plantea que se deberían exigir procedimientos normalizados para medir el impacto ambiental de la IA. “Hoy no hay datos confiables ni suficientes regulaciones”, se queja, y apunta directamente al papel de los gobiernos: “Deben asumir el liderazgo para imponer transparencia y sostenibilidad hídrica, energética y ambiental”.