Inside Security llama a reforzar la ciberseguridad corporativa en la adopción responsable de nuevas tecnologías. Según VPNRanks, en 2025 habrá 1,31 millones de quejas por ciberataques impulsados por IA, con pérdidas potenciales de US$18,6 mil millones, el 40% de los correos de phishing dirigidos a empresas ya son generados por IA y el 60% de los destinatarios cae en ellos.

La inteligencia artificial (IA) dejó de ser una promesa tecnológica: hoy es parte del motor operativo de miles de organizaciones. Sin embargo, la velocidad con la que ha irrumpido está dejando atrás una capa crítica: la ética y la supervisión con que se toman decisiones automatizadas. 

Hoy, los ciberataques se ejecutan con una tecnología capaz de imitar voces, falsificar identidades y vulnerar sistemas corporativos en cuestión de segundos. En tanto, los deepfakes se emplean para suplantar identidades en videollamadas, procesos de autenticación y validaciones biométricas.

La advertencia es que este tipo de fraudes aumentará de forma acelerada en los próximos años, a medida de que la tecnología se masifique y los modelos criminales se vuelvan más accesibles para personas que no tengan los conocimientos técnicos avanzados. En este contexto, el ransomware continúa siendo el golpe más costoso para las empresas, mientras que el phishing encabeza los vectores en LATAM, con un crecimiento acelerado por la IA generativa, según Prey Project.

Al mismo tiempo, la UNESCO ha señalado que la ausencia de principios éticos en la automatización puede vulnerar derechos fundamentales, amplificar sesgos y provocar daños reputacionales severos para las organizaciones. Es decir, además del impacto económico directo, existen riesgos legales y reputacionales de gran escala.

Ante este escenario, David Pereira, gerente general de Inside Security, consultora especializada en ciberseguridad con 18 años de trayectoria, explica que “las empresas están invirtiendo en tecnología inteligente, pero se están quedando atrás en gobernanza y ética digital. La IA puede volverse un arma de doble filo si no sabemos con qué datos toma una decisión, quién la supervisa y qué valores la guían”.

La nueva frontera: seguridad con principios

Según señala el profesional de Inside Security, existen tres pilares críticos que las compañías deben considerar si no quieren transformar a la IA en su principal vulnerabilidad. En primer lugar, están los temas ligados a la ética, los que permitirán evitar sesgos, manipulación de información y riesgos reputacionales. Luego está la protección de datos, que podrá resguardar la soberanía digital ante filtraciones y usos indebidos y, finalmente, la transparencia, que ayudará a exigir modelos explicables y auditables en decisiones automatizadas.

“La pregunta ya no es solo cómo aprovechar la IA, sino a qué costo. Cada vez que una máquina decide sin supervisión humana, la línea entre innovación y abuso se vuelve más delgada. La ciberseguridad del futuro dependerá tanto del código como de los principios que lo sostienen”, enfatiza Pereira.

La inteligencia artificial vino para quedarse y aprende más rápido de lo que regulamos, la verdadera ventaja competitiva no estará en quién adopte primero esta tecnología, sino en quién lo haga con responsabilidad. La seguridad ya no es solo proteger sistemas: es proteger la confianza.

Google News Portal Agro Chile
Síguenos en Google Noticias

Equipo Prensa
Portal Agro Chile