ChatGPTEdukapiAgentes IAScale AIWarp CodePerplexityCometWordPressMistral AISiriApertusChinaGeminiIA / Inteligencia Artificialinterfaz cerebro-ordenador (BCI)

El Lado que OpenAI no te Cuenta: Cómo se Está Usando ChatGPT en delitos online

 | septiembre 4, 2025 17:07

ChatGPT se ha consolidado como una de las herramientas de inteligencia artificial más utilizadas en el día a día. Desde pedirle ideas cuando falta inspiración, automatizar tareas repetitivas o incluso generar imágenes realistas, el chatbot de OpenAI se ha integrado tanto en la vida de usuarios particulares como en el entorno empresarial. Sin embargo, no todo es positivo: expertos en ciberseguridad advierten que también puede ser utilizado con fines maliciosos cuando sus filtros de seguridad son burlados.

De acuerdo con Panda Security, los usos indebidos de ChatGPT pueden representar una amenaza considerable en la red, especialmente cuando se aprovecha su capacidad para redactar textos convincentes y difíciles de detectar.

Riesgos de ChatGPT

Uno de los riesgos más señalados es el phishing, es decir, el envío de correos electrónicos fraudulentos diseñados para engañar a los usuarios y robar sus datos. A esto se suma el malvertising, que consiste en anuncios falsos que dirigen a páginas web maliciosas.

Aunque ChatGPT tiene restricciones que le impiden generar este tipo de contenido, los investigadores advierten que, si alguien logra manipular al sistema, podría producir mensajes con apariencia legítima capaces de superar los filtros de seguridad.

Noticias falsas y manipulación política

El riesgo no termina ahí. OpenAI ha tenido que cerrar numerosas cuentas vinculadas a la difusión de noticias falsas y a la manipulación de conversaciones en redes sociales con fines políticos. Un ejemplo de ello fue la red Fox8, conformada por más de mil cuentas automatizadas que difundían mensajes generados con IA para promocionar criptomonedas sospechosas. Este tipo de operaciones refuerzan las preocupaciones sobre el uso de chatbots en campañas de desinformación masiva.

Malware disfrazado de extensión

A lo anterior se suma el caso de una supuesta extensión de ChatGPT para navegadores que se hacía pasar por oficial. En realidad, se trataba de un malware que logró filtrarse en miles de dispositivos y expuso información sensible de los usuarios.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

Este tipo de incidentes dejan claro que el ecosistema de herramientas basadas en IA es también un terreno fértil para ciberdelincuentes que buscan aprovechar la popularidad de la tecnología.

Los especialistas de Panda Security insisten en que la solución pasa por reforzar los sistemas de seguridad. Esto implica mejorar los filtros de detección de fraude, intensificar la supervisión y cerrar de manera proactiva las cuentas sospechosas. Además, señalan que la cooperación internacional será esencial para perseguir a quienes utilicen la inteligencia artificial con fines maliciosos.

En un escenario donde la IA avanza más rápido que la capacidad de regulación, la pregunta es inevitable: ¿estamos preparados para enfrentar los riesgos que trae consigo una herramienta tan poderosa como ChatGPT?

También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de Europa

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram