Jojojo, Google al ataque:
[2311.17035] Scalable Extraction of Training Data from (Production) Language Models
https://arxiv.org/abs/2311.17035
Artículo científico en el que demuestran que, sin métodos excesivamente complejos, modelos como chat GPT entenados con datos ad-hoc de clientes pueden ser atacados (por adversarios) para extraer la información con la que han sido entrenados.
Ya me parecía raro que, siendo como son líderes indiscutibles en todo lo que viene siendo IA, especialmente generativa, QUE PRÁCTICAMENTE INVENTARON ELLOS (para sí mismos), se fueran a quedar murmurando y apretando los puñitos.