ChatGPT se ha consolidado como una de las herramientas de inteligencia artificial más utilizadas en el día a día. Desde pedirle ideas cuando falta inspiración, automatizar tareas repetitivas o incluso generar imágenes realistas, el chatbot de OpenAI se ha integrado tanto en la vida de usuarios particulares como en el entorno empresarial. Sin embargo, no todo es positivo: expertos en ciberseguridad advierten que también puede ser utilizado con fines maliciosos cuando sus filtros de seguridad son burlados.
De acuerdo con Panda Security, los usos indebidos de ChatGPT pueden representar una amenaza considerable en la red, especialmente cuando se aprovecha su capacidad para redactar textos convincentes y difíciles de detectar.
Uno de los riesgos más señalados es el phishing, es decir, el envío de correos electrónicos fraudulentos diseñados para engañar a los usuarios y robar sus datos. A esto se suma el malvertising, que consiste en anuncios falsos que dirigen a páginas web maliciosas.
Aunque ChatGPT tiene restricciones que le impiden generar este tipo de contenido, los investigadores advierten que, si alguien logra manipular al sistema, podría producir mensajes con apariencia legítima capaces de superar los filtros de seguridad.
El riesgo no termina ahí. OpenAI ha tenido que cerrar numerosas cuentas vinculadas a la difusión de noticias falsas y a la manipulación de conversaciones en redes sociales con fines políticos. Un ejemplo de ello fue la red Fox8, conformada por más de mil cuentas automatizadas que difundían mensajes generados con IA para promocionar criptomonedas sospechosas. Este tipo de operaciones refuerzan las preocupaciones sobre el uso de chatbots en campañas de desinformación masiva.
A lo anterior se suma el caso de una supuesta extensión de ChatGPT para navegadores que se hacía pasar por oficial. En realidad, se trataba de un malware que logró filtrarse en miles de dispositivos y expuso información sensible de los usuarios.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesEste tipo de incidentes dejan claro que el ecosistema de herramientas basadas en IA es también un terreno fértil para ciberdelincuentes que buscan aprovechar la popularidad de la tecnología.
Los especialistas de Panda Security insisten en que la solución pasa por reforzar los sistemas de seguridad. Esto implica mejorar los filtros de detección de fraude, intensificar la supervisión y cerrar de manera proactiva las cuentas sospechosas. Además, señalan que la cooperación internacional será esencial para perseguir a quienes utilicen la inteligencia artificial con fines maliciosos.
En un escenario donde la IA avanza más rápido que la capacidad de regulación, la pregunta es inevitable: ¿estamos preparados para enfrentar los riesgos que trae consigo una herramienta tan poderosa como ChatGPT?
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.