Se trata de una operación matemática que permite “disfrazar” datos sensibles de las organizaciones para reducir las opciones de los ciberdelincuentes.

El modelo de privacidad diferencial es el resultado del trabajo continuo y el esfuerzo de los equipos de investigación de Google, quienes han puesto ya a disposiciones de todos los desarrolladores esta herramienta para “disfrazar” data sensible de las organizaciones.

Funciona para operaciones matemáticas y estadísticas que utilizan bases de datos y analítica, con el fin de por ejemplo en dos bases de datos de una misma empresa en las que en una se encuentren los altos directivos y en la otra solo colaboradores, los ciberdelicuentes no puedan inferir en cuál es cuál.

Además: ¿Desinformación por vacuna contra el covid-19? Google News lanza iniciativa para combatirlo

El gerente de producto de Google, Miguel Guevara, explicó para IT NOW que este modelo de privacidad diferencial se puede utilizar libremente en cualquier sistema informático basado en SQL e integrarlo software por medio de extensiones.

“Lo que hace esta operación matemática es generar ruido criptográfico para no ser susceptible a ataques informáticos. Además, mide que los métodos utilizados para el análisis y manejo de data sean los adecuados”, resaltó el entrevistado.

Esa es realmente la magia de este nuevo modelo de privacidad de la información, generar ruido para que nadie sepa a ciencia cierta qué información se encuentra detrás de los resultados que se están presentando.

El anunció de esta nueva plataforma se realizó en el marco del Día Internacional de la Privacidad de la Información, que se conmemora cada 28 de enero y ya se encuentra disponible de forma gratuita.

Importante: ¿Sabe mejorar la seguridad en Google Drive? Estas 5 claves le servirán

Prueba y desarrollo

Durante año y medio, de acuerdo con Guevara, más de dos mil desarrolladores de varias regiones del mundo ha utilizado la primera versión liberada por Google de la estructura interna que utiliza el modelo de privacidad diferencial.

Citó como ejemplo una startup en Francia, la cual ya utiliza el modelo de privacidad diferencial en análisis de data del sector salud de forma responsables y con menos riesgos cibernéticos.

La privacidad diferencial puede ser usada por desarrolladores para generar y trabajar en nuevas soluciones o innovaciones sobra la base de lo que Google propone para la privacidad de data.

Por otro lado, en el campo de Machine Learning también se puede implementar el modelo de privacidad diferencial para el aprendizaje de datos de forma más segura.

También: ¿Cómo Google Maps informará sobre los brotes de covid-19 en el mundo?

Guevara anunció también que han liberado una librería que cualquier desarrollador puede utilizar y que les permite medir el nivel de seguridad de modelos de Machine Learning. “Estamos muy contentos por estas alianzas, porque si creemos que solamente así, construyendo un ecosistema que sea libre, abierto y gratuito, más gente tendrá acceso a una privacidad de calidad”, enfatizó.

¿Retos?

La privacidad de la información representa un reto constante para la humanidad y las grandes compañías de tecnología. De acuerdo con Guevara es un campo de exploración bastante nuevo, a diferencia de la ciberseguridad.

El gran reto que tenemos en el mundo tecnológico es adaptarnos a las cambiantes expectativas de la privacidad. Todavía nos encontramos con un montón de preguntas interesantes relacionadas a este campo que es bastante nuevo”, finalizó.