La IA zarandea la seguridad y privacidad de las empresas: «Es el talón de Aquiles y el riesgo es bestial»
Expertos en el sector y la CEV advierten de los peligros de usar esta tecnología sin formación y sin control de los datos
El uso de la inteligencia artificial (IA) generativa por parte de los trabajadores y los controles de seguridad y privacidad de las empresas son dos ... cuestiones que avanzan a velocidades muy distintas. La primera lleva desde noviembre de 2022, momento en el que se lanzó y se popularizó Chat GPT, en sexta marcha y sin apenas indicios de ralentizarse, mientras que el segundo todavía no ha alcanzado la tercera. Un desfase que está zarandeando la protección de las compañías y que pone en riesgo la confidencialidad de los datos.
Tanto la Confederación Empresarial de la Comunitat Valenciana (CEV) como voces expertas en el sector apuntan en esta dirección de la doble velocidad y alertan de los peligros de usar la inteligencia artificial sin un control y una formación adecuada. Así lo señala el director de la Cátedra de Ciberseguridad INCIBE-UPV e investigador de VRAIN, Santiago Escobar, para quien es «el talón de Aquiles de las empresas privadas». «Cuando salió Chat GPT, todo el mundo lo empezó a utilizar sin ser conscientes del riesgo bestial de facilitar datos de empresas o de clientes», ejemplifica.
En la misma línea, el presidente de la Comisión de Innovación y Economía Digital de la CEV, José Rosell, remarca que la IA está entrando en las empresas «por la puerta de atrás». «Cada empleado puede estar usando ChatGPT o herramientas similares para su trabajo, sin saber qué ocurre con la información que introduce. Eso equivale a abrir el perímetro de ciberseguridad de una empresa sin darse cuenta», amplía.
En la Comunitat Valenciana, la integración de la inteligencia artificial en las empresas todavía no es generalizada, ni mucho menos. De hecho, únicamente un 13% de las compañías la ha incorporado en sus procesos, lo que la sitúa por debajo de la media estatal, del 17%, y lejos de regiones punteras en este sentido como la Comunidad de Madrid, con un 29%, según el Observatorio LAB 2025 de la Fundación LAB Mediterráneo. Pero una cosa es el uso oficial por parte de la empresa y otro el uso individual que cada empleado haga de ella.
Alucinación en las respuestas
La preocupación reflejada se da en las dos vertientes mencionadas, tanto la iniciativa de la empresa como del propio trabajador. En cuanto a la primera de ellas, una de las consecuencias negativas es la llamada alucinación del modelo de IA generativa, entendida como la invención de información por parte de la aplicación cuando las indicaciones no son precisas o cuando no encuentra la respuesta adecuada, según subraya el formador y divulgador en IA generativa aplicada al negocio, Raúl Ordóñez. «Se tiende a utilizar Chat GPT como si fuera Google y eso es un peligro, porque el sistema puede dar un resultado erróneo», añade.
Respecto a la segunda vertiente peligrosa, el uso autónomo de los trabajadores, Escobar critica la falta de formación de estos. «La privacidad y ciberseguridad siguen siendo las grandes desconocidas. Hasta que no pase algo gordo, las empresas no se sentirán presionadas a actuar», critica. Desde la CEV argumentan que, si bien hay que preparar a los empleados en esta materia, la instrucción por si sola «no basta». «Formar en IA sin un marco ético y técnico claro es como enseñar a conducir sin semáforos», remarca Rosell.
Legislación en IA
El coche en el que la inteligencia artificial generativa avanza en sexta marcha desde hace casi tres años apenas se ha cruzado con baches legislativos en este tiempo y, los que hay, todavía no se están implementando en su totalidad.
En marzo de 2024, el Parlamento Europeo dio su visto bueno al reglamento en IA para establecer la primera ley que regulara esta tecnología. Una normativa que se aplica gradualmente desde entonces en los estados miembro y que tiene como objetivos principales garantizar que los sistemas sean seguros y respeten los derechos de los ciudadanos y estimular la inversión y la innovación. La Eurocámara dio un plazo de dos años para su total aplicación desde su entrada en vigor, así que todavía hay margen de aplicación.
A escala autonómica, existen programas especializados de formación técnica y estratégica impulsados por iniciativas como INNDIH el Hub Digital de la Comunitat Valenciana, que ofrece formación adaptada a las pymes y administraciones públicas para facilitar el acceso a tecnologías como IA, Big Data o ciberseguridad. En paralelo, el sistema universitario valenciano —con instituciones como la Politècnica, la de Alicante o la Jaume I— está reforzando su papel con grados, másteres, cátedras y formación continua en inteligencia artificial y tecnologías emergentes, recuerdan desde la CEV.
Hasta que el desarrollo normativo se implemente de manera extendida, los expertos señalan otras soluciones para tratar de que el coche de la seguridad y la privacidad alcance al del uso descontrolado. Así, una de estas alternativas es entrenar y utilizar un modelo de IA local, para que los datos que se le faciliten no salgan de la empresa. Esto evitaría «la dependencia de terceros», destaca Ordóñez, y añade que ya hay empresas que lo están haciendo. «La capacidad y la calidad de la información será menor, pero habrá más protección», agrega el investigador de VRAIN.
La otra opción que está sobre la mesa es realizar convenios de seguridad con los grandes conglomerados del sector, como Open AI, para que los datos ofrecidos únicamente se usen para entrenar al modelo de IA privado.
Tanto las soluciones que ponen el foco en la empresa como las que lo ponen en el trabajador tienen el propósito común de evitar fugas de privacidad y de datos sensibles. O lo que es lo mismo, subir de tercera a sexta marcha para reducir el desfase entre la innovación de la inteligencias artificial y la seguridad.
¿Tienes una suscripción? Inicia sesión