Itsitio

¿Es posible instalar memorias falsas en ChatGPT para robar datos de los usuarios?

Informações:

Sinopsis

En este episodio de Cybertalks, Gustavo Aldegani analiza una preocupante vulnerabilidad en modelos de lenguaje como ChatGPT: la posibilidad de insertar memorias falsas que comprometan datos sensibles de los usuarios. Desde cómo funcionan estos ataques hasta las respuestas parciales de las empresas tecnológicas y las mejores prácticas para mitigar riesgos, exploramos el impacto de estas amenazas en la seguridad de la inteligencia artificial generativa.

Únete Ahora

Únete Ahora

  • Acceso ilimitado a todo el contenido de la plataforma.
  • Más de 30 mil títulos, incluidos audiolibros, podcasts, series y documentales.
  • Narración de audiolibros por profesionales, incluidos actores, locutores e incluso los propios autores.
Prueba ahora Firma sin compromiso. Cancele cuando quiera.

Compartir