Observador de Justiça da China

中 司 观察

InglêsArabeChinês (simplificado)DutchFrancêsAlemãohindiItalianoJapaneseKoreanPortuguêsRussoEspanholsuecohebraicoIndonesianvietnamitatailandêsturcoMalay

Como a China aborda a responsabilidade da plataforma na tomada de decisões algorítmicas?

Dom, 28 de novembro de 2021
Categorias: Insights
Contribuintes: Guodong Du 杜国栋

avatar

 

Principais tópicos:

  • Os legisladores chineses perceberam o papel central dos algoritmos na operação de plataformas de internet e os definiram como “tomada de decisão automatizada” na Lei de Proteção de Informações Pessoais (PIPL) promulgada em 20 de agosto de 2021, regulamentando essa tecnologia pela primeira vez.
  • No PIPL, as plataformas devem avaliar o impacto dos algoritmos com antecedência e são responsáveis ​​pelos resultados da tomada de decisão posteriormente.
  • O PIPL amplia o direito de conhecimento dos usuários da plataforma e exige que as plataformas quebrem os "casulos de informação" criados por recomendações personalizadas algorítmicas aos usuários.


Lei de proteção de informações pessoais da China (个人 信息 保护 法), promulgada em agosto de 2021, traça os limites para as plataformas da Internet que conduzem a tomada de decisão automatizada por meio de algoritmos.

Ⅰ. Fundo

As plataformas de Internet chinesas, normalmente TopBuzz e TikTok da ByteDance, usam amplamente algoritmos de recomendação para enviar conteúdo e produtos aos usuários.

No entanto, tais algoritmos, supostamente tendo interferido nos direitos de livre decisão dos usuários e, portanto, criado risco moral, são questionados pelo público e pelos reguladores.

Os legisladores chineses perceberam o papel central dos algoritmos na operação de tais plataformas, e os definiram como "tomada de decisão automatizada" na Lei de Proteção de Informações Pessoais (doravante 'o PIPL') promulgada em 20 de agosto de 2021, regulamentando esta tecnologia para o primeira vez.

De acordo com o PIPL, a tomada de decisão automatizada refere-se às atividades de análise e avaliação automática dos hábitos comportamentais, hobbies ou situação financeira, de saúde e de crédito dos indivíduos por meio de programas de computador e tomada de decisões sobre os mesmos. (Artigo 73)

Antes disso, havia opiniões divididas sobre a responsabilidade das plataformas pela tomada de decisão automatizada. Por exemplo, algumas pessoas acreditavam que as plataformas não deveriam ser responsabilizadas pelos resultados de seus algoritmos automatizados de tomada de decisão, que eram essencialmente um tipo de tecnologia neutra. No entanto, o PIPL esclarece o oposto.

Ⅱ. Restrições em plataformas

1. Os reguladores revisam diretamente os algoritmos

Como processadores de informações pessoais, as plataformas devem auditar regularmente a conformidade de seu processamento de informações pessoais com as leis e regulamentos administrativos. (Artigo 54)

Isso requer plataformas para auditar periodicamente suas tomadas de decisão automatizadas algorítmicas e outras atividades de processamento de informações.

De acordo com a regra, os reguladores também podem realizar auditorias internas sobre o funcionamento dos algoritmos das plataformas, em vez de supervisão externa sobre os atos das plataformas e apenas as consequências.

Nesse sentido, os reguladores fazem dos algoritmos o objeto regulador direto, o que permite aos reguladores intervir na tecnologia e nos detalhes da tomada de decisão automatizada.

2. As plataformas avaliam o impacto dos algoritmos com antecedência 

Como processadores de informações pessoais, as plataformas devem realizar avaliações de impacto de proteção de informações pessoais com antecedência e registrar as informações de processamento se usarem informações pessoais para a tomada de decisão automatizada. (Artigo 55)

A avaliação por plataformas deve abranger o seguinte:

A. Se os objetivos, métodos ou qualquer outro aspecto do processamento de informações pessoais são legais, legítimos e necessários;

B. O impacto sobre os direitos e interesses pessoais e o nível de risco; e

C. Se as medidas de proteção de segurança tomadas são legais, eficazes e proporcionais ao nível de risco.

Assim, as plataformas devem realizar uma avaliação prévia antes que os algoritmos de tomada de decisão automatizada entrem em operação. A avaliação de risco inclui a legitimidade e necessidade da tomada de decisão automatizada algorítmica, bem como seu impacto e risco.

A tomada de decisão automatizada algorítmica defeituosa das plataformas pode trazer danos à propriedade e aos direitos pessoais dos cidadãos, até mesmo aos interesses públicos e à segurança nacional.

Portanto, as consequências negativas podem impactar milhares de usuários. Nesse ponto, mesmo que as plataformas sejam responsabilizadas, pode ser difícil recuperar o dano que já foi feito.

Para evitar tal situação, a lei estabelece um sistema de avaliação prévia dos algoritmos das plataformas na tentativa de intervir previamente nos algoritmos.

3. As plataformas são responsáveis ​​pelos resultados da tomada de decisão posteriormente

As plataformas devem assumir as seguintes obrigações para os resultados da tomada de decisão automatizada (Artigo 24):

A. As plataformas devem garantir que os resultados sejam justos e imparciais

Quando os processadores de informações pessoais conduzem a tomada de decisão automatizada com informações pessoais, eles devem garantir a transparência da tomada de decisão e a justiça e imparcialidade dos resultados, e não devem dar tratamento diferenciado desarrazoado aos indivíduos em termos de preços de transação ou outras condições de transação.

B. As plataformas devem fornecer opções automatizadas de tomada de decisão, não direcionando as características pessoais de seus usuários.

Quando a entrega de informações push ou marketing comercial para indivíduos é conduzida por meio de tomada de decisão automatizada, opções que não visam as características pessoais dos indivíduos ou formas fáceis de recusar o recebimento devem ser fornecidas aos indivíduos simultaneamente.

C. As plataformas devem explicar os resultados da tomada de decisão.

Quando uma decisão que tem impacto material nos direitos e interesses de um indivíduo é feita por meio de tomada de decisão automatizada, o indivíduo deve ter o direito de solicitar ao processador de informações pessoais explicações, bem como o direito de recusar a tomada de decisões pelo processador de informações pessoais apenas por meio de tomada de decisão automatizada.

A regra responsabiliza as plataformas pelos resultados da tomada de decisão automatizada, incluindo:

A. A regra não reconhece a defesa de "neutralidade de tecnologia" que tem sido usada pelas plataformas. As plataformas devem ser responsáveis ​​pelos resultados da tomada de decisão automatizada algorítmica e devem garantir que os resultados sejam justos e razoáveis.

B. A regra amplia o direito de saber dos usuários da plataforma. Os usuários podem solicitar a transparência dos resultados da tomada de decisão automatizada, bem como explicações das plataformas em caso de “impacto material”.

C. A regra exige que as plataformas quebrem os "casulos de informação" criados por recomendações personalizadas algorítmicas aos usuários e exige que as plataformas protejam o direito de conhecimento dos usuários.

III. Nossos comentários

A China fez um grande avanço no PIPL ao adicionar regras legais para algoritmos de plataformas de tomada de decisão automatizada. No entanto, ele ainda precisa ser mais refinado. Por exemplo, a lei não esclarece:

A. condições para as plataformas iniciarem a avaliação do algoritmo.

B. se e em que medida os relatórios de avaliação serão tornados públicos após as plataformas avaliarem seus algoritmos, e 

C. como as plataformas devem ser responsáveis ​​pelos danos causados ​​por sua tomada de decisão automatizada algorítmica.

Presumo que os reguladores chineses ainda estejam explorando a possibilidade de promulgar uma série de regulamentos específicos para implementar ainda mais o PIPL.

 

Foto por Viagem de estrada com Raj on Unsplash

 

 

 

 

 

Contribuintes: Guodong Du 杜国栋

Salvar como PDF

Leis relacionadas no Portal de Leis da China

você pode gostar também

Estudo de caso: punição administrativa de reconhecimento facial

Um estudo de mais de 400 casos de punição administrativa esclarece a atitude atual do governo chinês em relação ao reconhecimento facial e fornece um cenário para avaliar como a Lei de Proteção de Informações Pessoais da China se aplicaria caso os casos ocorressem hoje.

O que diz a lei de assistência jurídica da China?

Qual é o dever do advogado? Quem atuará como pessoal de assistência jurídica? Que tipo de serviços jurídicos podem ser fornecidos? Aqui estão as principais perguntas a serem respondidas para conhecer a Lei de Assistência Jurídica da China.

Lei de Segurança do Trabalho da China (2021)

A Lei de Segurança do Trabalho (安全 生产 法) foi promulgada em 29 de junho de 2002 e alterada em 2009, 2014 e 2021, respectivamente. A última revisão entrou em vigor em 1 de setembro de 2021.

Disposições sobre várias questões relativas à aplicação da lei no julgamento de casos civis que envolvem o uso de tecnologias de reconhecimento facial para processar informações pessoais (2021)

Disposições do Supremo Tribunal Popular sobre várias questões relativas à aplicação da lei no julgamento de casos civis que envolvem o uso de tecnologias de reconhecimento facial para processar informações pessoais (最高人民法院 关于 审理 使用 人脸识别 技术 处理 个人 信息 相关 民事案件 适用 法律若干 问题 的 规定) foram promulgados em 27 de julho de 2021 e entraram em vigor em 1º de agosto de 2021.