Con la creciente preocupación por las filtraciones de datos, los fabricantes de herramientas de IA están trabajando para asegurar a los usuarios preocupados que sus datos están seguros.
manzana tiene prohibido el uso de la herramienta de inteligencia artificial ChatGPT entre sus empleados en un intento por prevenir violaciones y fugas de datos. Así lo informó el Wall Street Journal, que citó un memorando interno de la empresa.
Apple y otras empresas están preocupadas por la seguridad de los datos
La restricción convierte a Apple en una de varias empresas que limitan el uso del software por parte de algunos de sus trabajadores. El comunicado decía que la razón de esto es que el fabricante del iPhone cree que los trabajadores pueden cargar archivos confidenciales sin darse cuenta en la plataforma de IA. El informe dice que la restricción introducida por Apple no se limita a ChatGPT sino a cualquier otra plataforma de IA que pueda resultar en cualquier forma de fuga de datos. Algunos de estos son de la plataforma de codificación GitHub, que posee una herramienta llamada Copilot, y otro de Microsoft.
Desde que se conoció la noticia, Apple aún no ha hecho una declaración pública en respuesta a las consultas. Sin embargo, los analistas de IA opinan que la medida para restringir el uso de plataformas de IA por parte de los trabajadores se deriva del hecho de que plataformas como ChatGPT advierten contra la carga de datos confidenciales por parte de los usuarios. Tales advertencias tienen sentido ya que todos los datos enviados a su base de datos se utilizan para condicionar sus modelos de IA para mejorarlos.
Samsung colocó una prohibición temporal en ChatGPT
Al plantear preocupaciones sobre la privacidad de los datos, varias empresas, como JPMorgan, Bank of America y Amazon, se manifestaron en contra del uso de ChatGPT en enero. Otra entidad que puede estar considerando prohibir el uso de la herramienta de IA es Samsung. El mes pasado, su ingeniero cargó datos confidenciales en un intento por rectificar una base de datos defectuosa. Mientras tanto, la dirección de Samsung ha impuesto una restricción temporal al uso de ChatGPT. El gigante tecnológico ya ha comenzado el desarrollo de su propia plataforma de IA interna.
Además de las empresas, los gobiernos también están preocupados por la amenaza de fugas de datos. El gobierno italiano prohibió brevemente el uso de ChatGPT, lo que planteó problemas con la seguridad de los datos personales en la plataforma. Desde entonces, ha cambiado su posición al permitir que la empresa detrás de ChatGPT, OpenAI, continúe operando en el país después de que se cumplieron las demandas del gobierno italiano.
Versiones privadas de herramientas de IA
Con la creciente preocupación por las filtraciones de datos, los fabricantes de herramientas de IA están trabajando para asegurar a los usuarios preocupados que sus datos están seguros. ChatGPT lanzó recientemente una versión privada de su herramienta llamada modo incógnito. Esta versión, según OpenAI, asegura que los datos cargados no se mantengan permanentemente en su base de datos. Las indicaciones tampoco se guardarían más tiempo del necesario para realizar comprobaciones y evitar abusos.
Microsoft también anunció su trabajo en una versión privada de su software dirigida a empresas. La versión de IA no utilizará datos de la empresa en los entrenamientos, ha asegurado la compañía.
IBM también está trabajando en su herramienta privada de inteligencia artificial, como anunció la compañía este mes. La IA centrada en la privacidad de Watsonx garantizaría que los usuarios no se preocupen por las fugas de datos.
“Los clientes pueden entrenar e implementar rápidamente capacidades de IA personalizadas en todo su negocio, al mismo tiempo que conservan el control total de sus datos”, CEO de IBM, Arvind Krishna dicho.
Sin embargo, se espera que estas versiones privadas sean caras.
próximo