ChatGPT é proibido na Itália por falta de segurança de dados

A recente proibição do ChatGPT na Itália foi motivado por falta de segurança de dados e imposto pela Agência de Proteção de Dados do país foi motivada por preocupações sobre a segurança de dados pessoais dos usuários da ferramenta.

A agência italiana apontou falhas na proteção de informações sensíveis, como:

  • Nome;
  • E-mail;
  • Dados bancários.

A não implementação de regras de proteção de dados pode resultar em multa de até € 20 milhões para a OpenAI, empresa responsável pelo ChatGPT.

A empresa tem o prazo de até 20 dias para implementar as atualizações necessárias para garantir a integridade das informações.

Além das falhas, outras questões foram levantadas, como a veracidade das informações fornecidas pelo ChatGPT, a coleta automática de dados e a segurança geral dos dados pessoais.

Especialistas sugerem que, ao fornecer informações sensíveis online, medidas preventivas como o uso de senhas únicas e o cadastro de serviços com cartões temporários devem ser adotadas.

Resposta da OpenAI às críticas sobre segurança de dados

Em resposta à proibição, a OpenAI removeu o ChatGPT da Itália e afirmou estar comprometida com a proteção de informações sensíveis os usuários.

A empresa está trabalhando para reduzir a quantidade de dados pessoais utilizados no treinamento de seus sistemas de IA e expressou apoio à regulamentação das inteligências artificiais.

A proibição do ChatGPT na Itália pode servir como um precedente para outros países, incentivando verificações e a criação de leis para regular o uso de ferramentas de inteligência artificial com o objetivo de políticas de segurança de dados pessoais dos usuários.

A visão de outros países sobre a proteção de dados do ChatGPT

Ulrich Kelber, o comissário alemão para proteção de dados, afirmou que a Alemanha pode ser o próximo país a seguir os passos da Itália.

Autoridades de proteção de dados na França e na Irlanda também já iniciaram diálogos com o regulador de dados italiano para discutir as descobertas sobre o ChatGPT.

Além disso, vários municípios na França iniciaram investigações independentes para avaliar os impactos e implicações do uso do ChatGPT, com Montpellier considerando proibir o uso da ferramenta por funcionários municipais como medida de precaução.

O Information Commissioner’s Office, regulador autônomo de dados do Reino Unido, afirmou que, embora incentive os avanços na inteligência artificial, está preparado para tomar medidas contra violações das leis de proteção de dados.

O ChatGPT é um modelo de linguagem de inteligência artificial treinado em uma ampla variedade de dados e é capaz de responder a perguntas e realizar tarefas em linguagem natural.

No entanto, as recentes preocupações com a segurança de dados e privacidade levaram a pedidos de bloqueio ou proibição da ferramenta em alguns países da União Europeia.

A proibição na Itália sublinha a importância de as empresas de tecnologia serem responsáveis e estarem sempre comprometidas com a segurança dos dados dos usuários.

Rolar para cima