Principais tópicos:
- Os legisladores chineses perceberam o papel central dos algoritmos na operação de plataformas de internet e os definiram como “tomada de decisão automatizada” na Lei de Proteção de Informações Pessoais (PIPL) promulgada em 20 de agosto de 2021, regulamentando essa tecnologia pela primeira vez.
- No PIPL, as plataformas devem avaliar o impacto dos algoritmos com antecedência e são responsáveis pelos resultados da tomada de decisão posteriormente.
- O PIPL amplia o direito de conhecimento dos usuários da plataforma e exige que as plataformas quebrem os "casulos de informação" criados por recomendações personalizadas algorítmicas aos usuários.
Lei de proteção de informações pessoais da China (个人 信息 保护 法), promulgada em agosto de 2021, traça os limites para as plataformas da Internet que conduzem a tomada de decisão automatizada por meio de algoritmos.
Ⅰ. Fundo
As plataformas de Internet chinesas, normalmente TopBuzz e TikTok da ByteDance, usam amplamente algoritmos de recomendação para enviar conteúdo e produtos aos usuários.
No entanto, tais algoritmos, supostamente tendo interferido nos direitos de livre decisão dos usuários e, portanto, criado risco moral, são questionados pelo público e pelos reguladores.
Os legisladores chineses perceberam o papel central dos algoritmos na operação de tais plataformas, e os definiram como "tomada de decisão automatizada" na Lei de Proteção de Informações Pessoais (doravante 'o PIPL') promulgada em 20 de agosto de 2021, regulamentando esta tecnologia para o primeira vez.
De acordo com o PIPL, a tomada de decisão automatizada refere-se às atividades de análise e avaliação automática dos hábitos comportamentais, hobbies ou situação financeira, de saúde e de crédito dos indivíduos por meio de programas de computador e tomada de decisões sobre os mesmos. (Artigo 73)
Antes disso, havia opiniões divididas sobre a responsabilidade das plataformas pela tomada de decisão automatizada. Por exemplo, algumas pessoas acreditavam que as plataformas não deveriam ser responsabilizadas pelos resultados de seus algoritmos automatizados de tomada de decisão, que eram essencialmente um tipo de tecnologia neutra. No entanto, o PIPL esclarece o oposto.
Ⅱ. Restrições em plataformas
1. Os reguladores revisam diretamente os algoritmos
Como processadores de informações pessoais, as plataformas devem auditar regularmente a conformidade de seu processamento de informações pessoais com as leis e regulamentos administrativos. (Artigo 54)
Isso requer plataformas para auditar periodicamente suas tomadas de decisão automatizadas algorítmicas e outras atividades de processamento de informações.
De acordo com a regra, os reguladores também podem realizar auditorias internas sobre o funcionamento dos algoritmos das plataformas, em vez de supervisão externa sobre os atos das plataformas e apenas as consequências.
Nesse sentido, os reguladores fazem dos algoritmos o objeto regulador direto, o que permite aos reguladores intervir na tecnologia e nos detalhes da tomada de decisão automatizada.
2. As plataformas avaliam o impacto dos algoritmos com antecedência
Como processadores de informações pessoais, as plataformas devem realizar avaliações de impacto de proteção de informações pessoais com antecedência e registrar as informações de processamento se usarem informações pessoais para a tomada de decisão automatizada. (Artigo 55)
A avaliação por plataformas deve abranger o seguinte:
A. Se os objetivos, métodos ou qualquer outro aspecto do processamento de informações pessoais são legais, legítimos e necessários;
B. O impacto sobre os direitos e interesses pessoais e o nível de risco; e
C. Se as medidas de proteção de segurança tomadas são legais, eficazes e proporcionais ao nível de risco.
Assim, as plataformas devem realizar uma avaliação prévia antes que os algoritmos de tomada de decisão automatizada entrem em operação. A avaliação de risco inclui a legitimidade e necessidade da tomada de decisão automatizada algorítmica, bem como seu impacto e risco.
A tomada de decisão automatizada algorítmica defeituosa das plataformas pode trazer danos à propriedade e aos direitos pessoais dos cidadãos, até mesmo aos interesses públicos e à segurança nacional.
Portanto, as consequências negativas podem impactar milhares de usuários. Nesse ponto, mesmo que as plataformas sejam responsabilizadas, pode ser difícil recuperar o dano que já foi feito.
Para evitar tal situação, a lei estabelece um sistema de avaliação prévia dos algoritmos das plataformas na tentativa de intervir previamente nos algoritmos.
3. As plataformas são responsáveis pelos resultados da tomada de decisão posteriormente
As plataformas devem assumir as seguintes obrigações para os resultados da tomada de decisão automatizada (Artigo 24):
A. As plataformas devem garantir que os resultados sejam justos e imparciais
Quando os processadores de informações pessoais conduzem a tomada de decisão automatizada com informações pessoais, eles devem garantir a transparência da tomada de decisão e a justiça e imparcialidade dos resultados, e não devem dar tratamento diferenciado desarrazoado aos indivíduos em termos de preços de transação ou outras condições de transação.
B. As plataformas devem fornecer opções automatizadas de tomada de decisão, não direcionando as características pessoais de seus usuários.
Quando a entrega de informações push ou marketing comercial para indivíduos é conduzida por meio de tomada de decisão automatizada, opções que não visam as características pessoais dos indivíduos ou formas fáceis de recusar o recebimento devem ser fornecidas aos indivíduos simultaneamente.
C. As plataformas devem explicar os resultados da tomada de decisão.
Quando uma decisão que tem impacto material nos direitos e interesses de um indivíduo é feita por meio de tomada de decisão automatizada, o indivíduo deve ter o direito de solicitar ao processador de informações pessoais explicações, bem como o direito de recusar a tomada de decisões pelo processador de informações pessoais apenas por meio de tomada de decisão automatizada.
A regra responsabiliza as plataformas pelos resultados da tomada de decisão automatizada, incluindo:
A. A regra não reconhece a defesa de "neutralidade de tecnologia" que tem sido usada pelas plataformas. As plataformas devem ser responsáveis pelos resultados da tomada de decisão automatizada algorítmica e devem garantir que os resultados sejam justos e razoáveis.
B. A regra amplia o direito de saber dos usuários da plataforma. Os usuários podem solicitar a transparência dos resultados da tomada de decisão automatizada, bem como explicações das plataformas em caso de “impacto material”.
C. A regra exige que as plataformas quebrem os "casulos de informação" criados por recomendações personalizadas algorítmicas aos usuários e exige que as plataformas protejam o direito de conhecimento dos usuários.
III. Nossos comentários
A China fez um grande avanço no PIPL ao adicionar regras legais para algoritmos de plataformas de tomada de decisão automatizada. No entanto, ele ainda precisa ser mais refinado. Por exemplo, a lei não esclarece:
A. condições para as plataformas iniciarem a avaliação do algoritmo.
B. se e em que medida os relatórios de avaliação serão tornados públicos após as plataformas avaliarem seus algoritmos, e
C. como as plataformas devem ser responsáveis pelos danos causados por sua tomada de decisão automatizada algorítmica.
Presumo que os reguladores chineses ainda estejam explorando a possibilidade de promulgar uma série de regulamentos específicos para implementar ainda mais o PIPL.
Foto por Viagem de estrada com Raj on Unsplash
Contribuintes: Guodong Du 杜国栋