GPT 3

Hacking en Machine Learning | Extracción datos sensibles/privados de GPT-2 XL + tensorflow privacy



full scan

#machinelearning #hacking #tensorflow #nlp
A medida que los modelos del lenguaje continúan avanzando, aparecen nuevas problemáticas y riesgos, uno de esos riesgos es la posibilidad de que los modelos filtren detalles de los datos en los que están entrenados. Especialmente preocupante son las situaciones en la que un modelo ha sido entrenado con datos privados.

En este video:
* Vamos a analizar el paper “Extracting Training Data from Large Language Models” : https://arxiv.org/pdf/2012.07805.pdf
* Intentaremos simular los ataques propuestos por los autores con los modelos disponibles en https://huggingface.co/
* Hablaremos tecnicas de mitagacion con https://github.com/tensorflow/privacy

Sígueme en:
👉twitter: @luisvelasco
👉medium: https://medium.com/@velascoluis
👉github: https://github.com/velascoluis