
Esta mañana me estaba leyendo este artículo sobre los potenciales riesgos de ciberseguridad que entrañan los desarrollos recientes en materia de inteligencia artificial y me dio mucho que pensar.
La carrera por alcanzar la AGI (inteligencia artificial general) y obtener una ventaja sobre el resto de competidores puede que esté haciendo que dejemos de lado consideraciones que jamás deberíamos olvidar teniendo en cuenta lo que nos estamos jugando, ante las posibles amenazas que el mal uso de este tipo de modelos puede acarrear.
En este sentido, Sam Rubin, vicepresidente senior de Palo Alto Networks, mencionaba que el nuevo modelo de DeepSeek es más vulnerable a posibles técnicas de ‘jailbreak’.
¿Es esto solo una crítica porque la empresa que lo ha desarrollado es china? No lo creo, pero también es importante recordar que estos riesgos existen en otros modelos, aunque quizás estén más controlados.
Yo mismo, he conseguido de forma sencilla darles a ChatGPT y a Claude instrucciones para las cuales los modelos no habían sido programados. Esto, aunque útil e incluso he de reconocer que muy deseable en muchas ocasiones, teniendo en cuenta las restricciones arbitrarias de estas compañías, es a la vez tremendamente preocupante por las amenazas que a raíz de ello se pueden generar.
Aprendizajes de ciberseguridad desde la movilidad autónoma conectada
Como sabéis, por eso estáis aquí, desde AEVAC nos dedicamos al mundo de la movilidad autónoma conectada. Y si algo podemos afirmar es que este sector ha sido el primero en incorporar consideraciones de ciberseguridad en todos los aspectos relacionados con la autonomía y conectividad para minimizar los riesgos desde el inicio.
Sin embargo, viendo los errores que se están produciendo a la hora de liberar los LLM’s y el incremento, cada vez mayor, cada vez más agresivo, de la competencia en IA, me pregunto si a pesar de toda la trayectoria recorrida, algo similar podría llegar a suceder en el sector de la conducción autónoma.
El resultado podría ser una carrera donde las vulnerabilidades tecnológicas pongan en riesgo el trabajo realizado a lo largo de todos estos años, generando desconfianza pública y frenando la inversión necesaria.
Regulación inteligente: Balance entre innovación y seguridad
Quienes me conocen saben que soy un tecnooptimista convencido. Creo en la innovación continua como una herramienta maravillosa para mejorar nuestra calidad de vida. Sin embargo, los cambios radicales necesitan un enfoque más responsable del que estamos viendo con algunos modelos.
No soy partidario del exceso de regulación, pero en este caso sí considero necesaria una implicación inteligente por parte de las autoridades, cosa que si os soy sincero, al menos en Europa no estoy viendo. Necesitamos más sandboxes, experimentación y colaboración entre sectores público, privado y el tercer sector para avanzar más rápido, llegar más lejos y hacerlo con seguridad.
No hablo de censura, ni en los LLM’s ni en el futuro de la movilidad autonoma. Solo hablo de inteligencia, de consciencia de lo que nos estamos jugando, tanto para bien como para mal.
Como usuario de la vía pública, exijo que cuando un vehículo salga a la calle, lo haga con las máximas garantías de seguridad para que todos podamos confiar en ellos, para que todos sepamos como desenvolvernos y disfrutar al máximo de todo su potencial.
Y como ciudadanos, es nuestra obligación exigir progreso y también seguridad. No podemos mirar hacia otro lado ni permitir que nos cercenen nuestro futuro, poniendo obstáculosculos al progreso o ignorando los posibles riesgos. Como instituciones y empresas, es su obligación hacerlo realidad.
Ahora te toca a ti
¿Qué opinas?
-
¿Te preocupa cómo se está desarrollando el sector de los LLM’s?
- ¿Crees que algo similar puede llegar a pasar con la movilidad autónoma?
- ¿Qué sugieres hacer para exigir más agilidad y responsabilidad?
Déjanos tu opinión en los comentarios.