21
Inteligência Artificial e Privacidade Documento temático (Traduçao não oficial) Declaração Esta tradução não oficial em Português do documento, disponibilizada pelo Gabinete para a Protecção de Dados Pessoais (GPDP) do Governo da RAEM, servindo apenas para a consulta dos interessados. Este documento dedica-se ao objectivo referencial, não é lei ou regulamento vigente na RAEM, e não produz qualquer efeito legal. O GPDP ou qualquer outra entidade pública na RAEM não se responsabiliza por qualquer prejuízo ou dano provocado por este documento ou pela reprodução ou divulgação do mesmo. Este documento pode ser publicado ou reproduzido para uso sem fins lucrativos. No entanto, o utilizador deve declarar que o documento é disponibilizado pelo GPDP e indicar a origem do documento em Inglês. Salvo autorização prévia por escrito do GPDP, ninguém pode reproduzir, reeditar, distribuir, divulgar ou proporcionar este documento para uso com fins lucrativos. O GPDP reserva o direito de responsabilizar o infractor nos termos da lei. Governo da Região Administrativa Especial de Macau Gabinete para a Protecção de Dados Pessoais Abril de 2019 (1. a versão)

Inteligência Artificial e Privacidade...Inteligência Artificial e Privacidade Documento temático (Traduçao não oficial) Declaração Esta tradução não oficial em Português

  • Upload
    others

  • View
    19

  • Download
    0

Embed Size (px)

Citation preview

Inteligência Artificial e Privacidade

Documento temático

(Traduçao não oficial)

Declaração

Esta tradução não oficial em Português do documento, disponibilizada pelo

Gabinete para a Protecção de Dados Pessoais (GPDP) do Governo da RAEM,

servindo apenas para a consulta dos interessados.

Este documento dedica-se ao objectivo referencial, não é lei ou regulamento

vigente na RAEM, e não produz qualquer efeito legal. O GPDP ou qualquer

outra entidade pública na RAEM não se responsabiliza por qualquer prejuízo ou

dano provocado por este documento ou pela reprodução ou divulgação do

mesmo.

Este documento pode ser publicado ou reproduzido para uso sem fins

lucrativos. No entanto, o utilizador deve declarar que o documento é

disponibilizado pelo GPDP e indicar a origem do documento em Inglês. Salvo

autorização prévia por escrito do GPDP, ninguém pode reproduzir, reeditar,

distribuir, divulgar ou proporcionar este documento para uso com fins lucrativos.

O GPDP reserva o direito de responsabilizar o infractor nos termos da lei.

Governo da Região Administrativa Especial de Macau

Gabinete para a Protecção de Dados Pessoais

Abril de 2019 (1.

a versão)

Nota

O documento temático “Inteligência Artificial e Privacidade” é uma tradução para

Português do documento “Issues paper - Artificial Intelligence and Privacy”,

publicado pelo Comissariado para a informação da Victória (Office of the Victorian

Information Comissioner)

(https://ovic.vic.gov.au/wp-content/uploads/2018/08/AI-Issues-Paper-V1.1.pdf).

O texto original em Inglês foi publicado em Junho de 2018 pelo Comissariado para

a informação da Victória, Austrália.

O documento foca-se nas questões e desafios em relação à protecção de dados

pessoais e privacidade, trazidos pela aplicação das tecnologias de IA, e discute a

importância sobre ética e responsabilização no mesmo domínio.

Recorda-se o leitor que este Documento foi reparado tendo como pano de fundo

enquadramento legal da Austrália.

Assim alguns temas são discutidos sob uma perspectiva jurídica diferente da da

RAEM, e deverá ter-se o cuidado de não retirar paralelos próximos com as soluções

jurídicas de Macau para os mesmos problemas.

O Gabinete para a Protecção de Dados Pessoais formula votos de que os

responsáveis pelo tratamento, os subcontratantes e o público em geral possam

beneficiar dos úteis ensinamentos contidos no presente documento.

Governo da Região Administrativa Especial de Macau

Gabinete para a Protecção de Dados Pessoais

Inteligência Artificial e Privacidade

Documento temático

1. Introdução ................................................................................................................................ 4

1.1 Objectivo deste documento ...................................................................................... 5

2. Terminologia ........................................................................................................................... 5

2.1 Inteligência artificial restrita, genérica e super ....................................................... 5

2.2 Megadados ................................................................................................................ 6

2.3 Machine Learning ..................................................................................................... 7

2.4 Deep learning ............................................................................................................ 8

3. Inteligência artificial no sector público ................................................................................. 9

4. Considerações sobre a privacidade ...................................................................................... 10

4.1 Porque é a IA diferente? ......................................................................................... 11

4.2 Informação Pessoal ................................................................................................. 12

4.3 Recolha, objectivo e utilização .............................................................................. 14

4.4 Limitação da recolha .............................................................................................. 14

4.5 Especificação da finalidade .................................................................................... 15

4.6 Limitação da utilização .......................................................................................... 15

4.7 Transparência e consentimento .............................................................................. 17

4.8 Discriminação ......................................................................................................... 18

5. Responsabilização e governança .......................................................................................... 19

6. Conclusão .............................................................................................................................. 20

7. Leitura complementar ........................................................................................................... 21

4

Inteligência Artificial e Privacidade

Documento temático

1. Introdução

A Inteligência Artificial (IA), simplesmente, é uma subdivisão das ciências

informáticas com o objectivo de criar programas que podem executar tarefas

geralmente realizadas por seres humanos. Estas podem ser consideradas

inteligentes e incluir percepção de som e imagem, aprendizagem e adaptação,

raciocínio, reconhecimento de padrões e tomada de decisões. O termo “IA” é

frequentemente utilizado como um geral para descrever um conjunto de técnicas e

tecnologias relacionadas que incluem o MachineLearning, análise preditiva,

processamento de linguagem natural e robótica.

Mesmo que a filosofia da IA tenha sido discutida desde,pelo menos, Leibniz

no início do séc. XVIII, o conceito de IA que usamos existe desde o início da

década de 40 e tornou-se conhecido por causa do desenvolvimento do “teste de

Turing” em 1950. Mais recentemente, estamos a experienciar um período de

desenvolvimento rápido no campo de IA, como resultado de três factores:

algoritmos melhorados, aumento da capacidade computacional em rede e uma

maior capacidade de capturar e armazenar uma quantidade sem precedentes de

dados.1 Tal como os avanços tecnológicos, o próprio pensamento sobre as

máquinas inteligentes mudou-se significativamente desde os anos 60, isto

possibilitou muitos dos desenvolvimentos que estamos a usufruir hoje em dia.

As aplicações das tecnologias de IA já estão introduzidas nas nossas vidas

quotidianas, embora muitas pessoas não estejam cientes disto. Sendo uma das

características da IA, logo a tecnologia funciona, deixa de ser tratada como IA,

mas se transforma em computação mainstream2. Por exemplo, ser atendado por

uma voz automatizada do outro lado do telefone, ou receber uma sugestão de um

filme com base em preferências pessoais, todos são exemplos de tecnologias da IA

mainstream. Actualmente, estes sistemas constituem elementos fundamentais nas

nossas vidas, o facto é que, as técnicas de IA - incluindo reconhecimento de fala,

processamento de linguagem natural e análise preditiva – estão em funcionamento,

no entanto, estão esquecidas muitas vezes.

As maneiras em que a IA pode enriquecer as nossas vidas são imensas. O

aumento da eficiência e os custos mais baixos, as grandes melhorias em cuidados

de saúde e investigação, a maior segurança de veículos e a conveniência geral,

estes são apenas algumas esperanças trazidas pela IA. Entretanto, como qualquer

nova tecnologia, as oportunidades da IA trazem um conjunto de desafios sociais e

1 Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, ‘AI Now 2017 Report’, AI Now, 2017,

disponível em: https://ainowinstitute.org/AI_Now_2017_Report.pdf, p 3. 2 Toby Walsh, It's Alive! Artificial Intelligence from the logic piano to killer robots, Latrobe University Press, 2017, p 60.

5

jurídicos3

1.1 Objectivo deste documento

Este documento temático é uma introdução que serve para uma conversa mais

ampla respeitante à privacidade da informação e à IA. destina-se ao público

não-técnico e não pretende resolver as questões colocadas, nem fornecer

orientações jurídicas. Nota-se que existem muitas outras questões éticas, técnicas e

legais associadas com a IA, mas estão fora do âmbito deste documento. A última

página do documento contém uma lista de leitura complementar, algumas das

quais exploram mais profundo em relaçao as outras questões importantes.

O objectivo deste documento é:

fornecer um entendimento de alto nível sobre a IA e as suas aplicações no

sector público, e

sublinhar alguns dos desafios e oportunidades que a IA traz em relação à

privacidade da informação.

Para o propósito deste documento, a discussão geralmente limita-se à

privacidade da informação, que é um ramo do mais amplo e abstracto conceito da

privacidade. Na Victória e outras regiões, o tratamento legislativo no que diz

respeito à protecção da privacidade foca-se mais na privacidade da informação do

que outros ramos, tais como privacidade física.4 Privacidade da informação

relaciona-se com o nível de controlo que um individuo tem sobre a sua própria

informação pessoal em determinar quando, como e para que finalidade é utilizada.

2. Terminologia

Existe uma quantidade significativa de terminologia e jargão técnico à volta

da IA, a qual é frequentemente usada de forma intercambiável e pode causar

confusão, nomeadamente para aqueles que não têm um conhecimento técnico. A

seguir, é uma explicação simples sobre os termos fundamentais para ajudar os

leitores gerais a entenderem alguma terminologia em relação à IA, e ainda a

discussão colcada neste documento. Esta lista não é exaustiva, nem pretende ser

aprofundada a nível tecnológico.

2.1 Inteligência artificial restrita, genérica e super

A maioria da IA que experimentamos hoje em dia é considerada “restrita”.

Isto significa que é deliberadamente programada para ser competente numa área

específica. Também é por vezes denominada de inteligência aumentada para

3 Por exemplo, Samuel Warren e Louis Brandeis escreveram sobre o impacto da câmara portátil no right to be let alone no

século XIX. Ver Samuel D. Warren e Louis D. Brandeis, ‘The Right to Privacy’, Harvard Law Review, Vol. IV, No. 6, 15 de

Dezembro de 1890. 4 Para mais informação sobre a lei de privacidade da informação na Austrália, ver Privacy Background Paper, 2015,

disponível em : http://www.ovic.vic.gov.au/.

6

sublinhar a sua capacidade de melhorar (mas não necessariamente substituir) a

inteligência humana. Por exemplo, um computador produzido nos anos 80 pela

IBM chamado Deep Blue conseguia jogar xadrez a um nível superior ao ser

humano, sendo um feito de grande importância na história do desenvolvimento da

IA. Porém, enquanto que o Deep Blue exibe uma capacidade sobre humana em

jogar xadrez, a sua inteligência termina aí.

No contrário, o conceito da inteligência artificial genérica (Artificial General

Intelligence, AGI) refere-se a um nível de inteligência transversal a vários campos.

A distinção entre inteligência genérica e restrita já é aparente no mundo natural:

por exemplo, as abelhas sabem construir colmeias e as formigas conseguem

construir formigueiros – ambos são exemplos de inteligência num sentido restrito.

Porém, esta inteligência é restrita a um domínio específico; as abelhas não sabem

construir um formigueiro e as formigas não consegum construir uma colmeia. Os

seres humanos, por outro lado, têm a capacidade de ter inteligência sobre

diferentes áreas, e conseguem aprender inteligência em novas áreas através da

experiência e observação.

À base da ideia da AGI, a superinteligência artificial é geralmente vista como

uma IA que é tanto geral e excede os níveis da inteligência humana. Um autor

notável nesta área, Nick Bostrom, define a superinteligência como um “intelecto

que é muito mais inteligente que os melhores cérebros humanos em praticamente

todos os campos, incluindo criatividade científica, sabedoria geral e habilidade

sociail.” 5 Muitas concepções na cultura pop da IA, tais como nos filmes Ex

Machina e Her, se apresentam a IA no formato da superinteligência. Este tipo de

caracterização pode estimular a excitação e/ou medo sobre a IA, enquanto é uma

ideia popular na ficção científica, e existe um debate significativo sobre a

probabilidade, iminência e as consequência de se desenvolve essa tecnologia.

No contexto deste documento temático, o âmbito da discussão limita-se à IA

restrita, doravante designada por IA.

2.2 Megadados

A relação entre a IA e os megadados tem dois sentidos. Ainda que os

processos analíticos dos megadados já existam, a maioria do real valor dos

mesmos só é conseguida utilizando técnicas de IA. Noutro sentido, os megadados

oferecem à IA uma fonte imensa e rica de entrada de dados para desenvolver e

aprender a partir deles. Neste sentido, a IA e os megadados estão fortemente

interligados.

Não existe uma definição estabelecida em relação aos megadados, porém, o

5 Nick Bostrom, ‘How long before superintelligence?’, Linguistic and Philosophical Investigations, Vol. 5, No.1, 2006, pp

11-30.

7

termo é geralmente utilizado para descrever quantidades gigantescas de dados,

produzidos e recolhidos numa variedade de formatos.6 Os tipos e a escala da

informação incluída sob o termo “megadados” não podem ser subestimados; quase

todas as acções de um individuo prouduzem dados – pesquisas online; partilha e

transmissão de informações diárias com o governo, empresas e redes sociais, até

mesmo dar um passeio com um smartphone – todas, intencionalmente ou não,

criam vastas quantidades de informação sobre os indivíduos. À medida que a

internet das coisas (Internet of Things, IoT) leva a rede mais e mais para o nosso

ambiente físico e espaço pessoal, o âmbito dos dados criados, recolhidos e levados

para os nossos sistemas de IA tende a entrar mais nas nossas vidas pessoais.

O Comissariado para a Informação do Reino Unido (The Information

Commissioner’s Office of the United Kinggdom) resume a ligação entre a IA e os

megadados de forma bastante eloquente:

Os megadados podem ser vistos como uma mais valia que é difícil de

aproveitar. A IA pode ser vista como uma chave de desbloquear o valor dos

megadados; e o Machine Learning é um dos mecanismos técnicos que sustenta e

facilita a IA.7

2.3 Machine Learning

Machine Learning é uma técnica de ciência informática que permite aos

computadores “aprenderem” por si próprios. É frequentemente caracterizada como

IA, mas essa é apenas uma das suas características. A característica que distingue

Machine Learning de outras formas da IA é a sua capacidade dinâmica de se

modificar quando é exposto a mais dados.8 Através da “absorção” de dados, a

máquina aperfeiçoa-se a si própria, desenvolvendo a sua lógica de acordo com os

dados que analisou.

Existem dois tipos de Machine Learning: supervisionado e sem supervisão. A

aprendizagem supervisionada requer um humano a fornecer tanto os dados como

as soluções, deixando a máquina determinar a ligação entre as dois partes. A

aprendizagem sem supervisão permite à máquina aprender mais livremente

ingerindo uma grande quantidade de dados (frequentemente os megadados) e

repetir análises dos mesmos até encontrar padrões e insights.

Por exemplo, alguém está interessado em prever o preço de uma casa. Para

fazer isto, pode dizer-se à máquina para procurar numa variedade de características

como número de quartos, se tem jardim ou não, etc. Utilizando a técnica da

aprendizagem supervisionada, seria dado também preços históricos de casas 6 Uma explicação completa dos megadados pode ser encontrada no Relatório do Relator Especial sobre o direito à

privacidade, preparado pelo Conselho de Direitos Humanos, A/72/43103, Outubro de 2017. 7 O UK Information Comissioner’s Office (ICO), Big Data, artificial intelligence, machine learning and data protection, 2017, p 8. 8 Ver por exemplo: What's the difference between Artificial Intelligence, Machine Learning and Deep Learning?,

disponível em https://deeplearning4j.org/ai-machinelearning-deeplearning, acedido a ultima vez em 17 de Abril de 2018.

8

comparáveis, para que o algoritmo possa construir um modelo para compreender a

relação entre certas características e o preço, e daí a máquina seria capaz de ter

uma previsão razoável repeitante ao preço da casa, com base nessas características.

No contexto da aprendizagem sem supervisão, a máquina não contaria com o

historial de preços de casas, nem teria acesso a quais características são

importantes considerar – em vez disso, iria determinar os padrões por si.

Estas técnicas são utlizadas em contextos diferentes e para propósitos variados.

Nenhuma requer programação explícita sobre o que procura, e o que confere ao

sistema um nível de autonomia para gerar a sua própria lógica, identificando

tendências que de outro modo não teriam sido detectadas por seres humanos.9 Os

algoritmos de Machine Learning já são utilizados de forma abundante na vida

moderna. Alguns exemplos incluem a produção de resultados de pesquisa web,

serviços onde há uma componente de sugestão como Netflix e Pandora, e prever o

valor monetário de um produto dado o mercado existente. A extensão sobre a qual

Machine Learning é útil é determinado pelos dados de entrada fornecidos. Por

causa disso, os ‘megadados’ têm providenciado um papel fulcral no sucesso de

Machine Learning.

2.4 Deep learning

Deep learning é uma subdivisão de Machine Learning, habitualmente

utilizado para fazer referência às redes neurais profundas (deep neural networks).10

Em termos gerais, uma rede neural processa dados através de uma abordagem por

camadas, onde cada camada recebe os dados de entrada a partir dos dados de saída

da camada antes desta. O termo profundo, ou “deep”, refere-se ao número de

camadas da rede neural.

À medida que a saída de cada camada se torna na entrada da seguinte, pode se

tornar progressivamente difícil compreender as decisões e as inferências feitas a

cada nível. O processo de passar por cada camada pode criar o que é referido como

efeito “caixa preta”, fazendo com que seja difícil entender verdadeiramente e

descrever os passos que levam a um resultado em particular.11 O cérebro humano

é frequentemente usado como analogia para explicar as redes neurais, porém isto

não é suficientemente descritivo, implicando que as máquinas entendem a

informação num modo semelhante ao pensamento humano, mas o que não é o

mesmo caso.

Deep learning é uma ferramenta extremamente poderosa, e muitos

creditam-na pela recente explosão da IA. Esta permitiu aos computadores terem a

capacidade de identificar palavras faladas quase tão bem como um humano, e

9 Will Knight, ‘The Dark Secret at the Heart of AI’, MIT Technology Review, 11 Abril 2017, disponível em

https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/. 10 Também é menos frequentemente usado para fazer menção a aprendizagem de reforço profunda. Para uma explicação de

ambas, ver Introduction to Deep Neural Networks, disponível em: https://deeplearning4j.org/neuralnet-overview. 11 ICO, Big Data, artificial intelligence, machine learning and data protection, 2017, p 11.

9

transformou a visão informática e melhorou dramaticamente a tradução por

computador – capacidades que são demasiadamente complexas para escrever à

mão sob a forma de código em máquinas. A natureza deste processo traz desafios à

transparência das decisões, já que alógica se pode tornar progressivamente obscura

ao olho humano a cada camada de processamento. Além disso, as redes neurais

não são imunes a viés. Por exemplo, uma rede neural recorrente (RNN) irá pegar

em dados aos quais já foi exposta para os tratar.12 Alguns descrevem a RNN como

tendo uma memória, o que à semelhança do ser humano, afecta a saída dos dados.

Por exemplo, em 2016 a Microsoft treinou um bot da IA utilizando uma RNN em

dados do Twitter, o que demonstrou o potencial para consequências não

intencionais deste modo da aprendizagem.13

3. Inteligência artificial no sector público

Enquanto o desenvolvimento da tecnologia da IA está a ser orientado

sobretudo pela indústria e pela investigação académica, as aplicações e o

desenvolvimento da IA também são relevantes ao sector público. O governo já

utiliza a IA nas muitas áreas, mas está em posição de beneficiar com maior

adopção destas tecnologias. Além disso, o governo tem um papel significativo em

definir como as tecnologias da IA afectam as vidas dos cidadãos através de

regulamentação, políticas e demonstração das melhores práticas. É importante que

o governo não fique para trás à medida que o sector privado segue em frente – isto

significa adoptar uma abordagem proactiva, dinâmica e informada face à

tecnologia e a sua interacção com a legislação e a sociedade.

Os usos da IA actualmente e do futuro em governo permanecem limitados por

cauasa de recursos, capacidade técnica e confiança do público. Algumas das

oportunidades de benefício mais imediatas para o sector público são aquelas em

que a IA pode reduzir a carga administrativa e ajudar a resolver problemas de

distribuição de recursos. A curto prazo, as aplicações da IA têm o potencial de ser

imensamente uteis no aumento da eficiência de processos governamentais

estabelecidos, tais como responder perguntas, preencher e procurar documentos,

reencaminhar pedidos, tradução e elaboração de documentos.14 Como por

exemplo, o uso de bots de chat para fornecer serviços ao cliente e aconselhamento

a indivíduos já se realizaram em algumas das maiores organizações

governamentais australianas.

A prazo mais longo, a IA tem o potencial, além de simplesmente melhorar os

processos estabelecidos, de alterar totalmente as operações governamentais. É

12 Para mais informação sobre redes neurais recorrentes, ver https://deeplearning4j.org/lstm.html. 13 Elle Hunt, ‘Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter’, The Guardian, Março de 2016,

disponível em:

https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter. 14 Hila Mehr, ‘Artificial Intelligence for Citizen Services and Government’, Harvard Ash Center for Democratic

Governance and Innovation, Agosto de 2017, disponível em:

https://ash.harvard.edu/files/ash/files/artificial_intelligence_for_citizen_services.pdf.

10

provável que venha a obrigar as organizações a adaptar às necessidades e

espectativas em constante evolução dos cidadãos, e alterar o campo regulatório e

legislativo para abrir caminho para os novos usos da tecnologia.

Mesmo que a IA prometa muitas oportunidades para o sector público, não

pode ser vista como uma solução para todos os desafios do governo. O uso e a

regulamentação das tecnologias da IA precisa de ser implementado de forma

estratégica e ponderosa, com particular cuidado na gestão de informação incluindo

a privacidade, a segurança dos dados, e a ética em termos mais abrangentes.15

4. Considerações sobre a privacidade

Esta secção explora foca-se em algumas das questões fundamentais trazidas

pela IA em relação à privacidade da informação. Isto não é uma exploração

exaustiva de todas as questões; serve, porém, para fornecer um panorama e

funcionar como rampa de lançamento para uma maior discussão relativamente a

considerações mais proeminentes no que toca à privacidade da informação.

Na Victória e outras regiões, a lei da privacidade da informação baseia-se

geralmente nas Directrizes para a Protecção da Privacidade e dos Fluxos

Transfronteiriços de Dados Pessoais de 1980. Estas Directrizes contêm oito

princípios fundamentais que continuam a estar consagrados na lei da privacidade

por todo o mundo, incluindo a Lei da Protecção de Privacidade e Dados de 2014

(Privacy and Data Protection Act , PDP Act). Um dos benefícios de ter legislação

baseada em princípios é que reconhece a natureza complicada e diferenciada da

privacidade, e permite um grau de flexibilidade em como a privacidade pode ser

protegida em vários contextos e a par de tecnologias e normas sociais em evolução.

Enquanto as Directrizes da OCDE têm sido notavelmente bem-sucedidas na

promoção de legislação de privacidade da informação por todo o mundo, a IA

apresenta desafios aos princípios basilares sobre os quais foram construídos por

essas Directrizes.

Enquanto as noções tradicionais da privacidade podem ser desafiadas pela IA,

não é uma presunção que a IA irá erodir a privacidade por defeito (privacy by

default); é possível conceber um futuro em que a IA possa ajudar a assegurar a

privacidade. Por exemplo, é provável que menos pessoas precisem, realmente,

dados em bruto para trabalhar com os mesmos, e isto possa, por sua vez,

minimizar o risco de violação da privacidade devido ao erro humano, também

possa capacitar um consentimento mais significativo, no qual os indivíduos

recebem serviços personalizados dependendo das suas preferências da privacidade

que a IA tinha estado ao longo dos tempos.

O aumento do uso da IA requer que o status quo da protecção da privacidade

15 Ibid., p 10.

11

seja revisto, no entanto, isto não significa que a privacidade deixe de existir ou

tornar irrelevante.

Um dos factores importantes da privacidade da informação é que fornece um

quadro essencial para fazer escolhas éticas sobre como utilizamos as novas

tecnologias. As considerações respeitantes à ética da tecnologia e resoluções dos

desafios da privacidade serão essenciais para o sucesso a longo prazo da IA. O

equilíbrio entre inovação tecnologia e considerações sobre privacidade irá

promover o desenvolvimento da IA socialmente responsável que possa assistir a

criação de valor público a longo prazo.

4.1 Porque é a IA diferente?

As tecnologias emergentes trazem quase sempre consigo considerações

importantes em relação à privacidade, mas a escala e a aplicação da IA criam um

ambiente único e sem precedentes de desafios contra a privacidade da informação.

De algumas formas, as implicações da IA podem ser vistas como uma extensão de

feito criado pelos megadados, mas a tecnologia de IA traz consigo não só a

capacidade de processar grandes quantidades de dados, mas também de os usar

para aprender, desenvolver modelos adaptativos e fazer previsões sob as quais é

possível agir – muitas vezes sem processos transparentes e explicáveis.

O desenvolvimento da tecnologia da IA provoca um risco significativo de as

premissas e preconceitos dos indivíduos e empresas que os criam virem a

influenciarm os resultados da IA. Consequências não intencionais causadas por

vieses e resultados opacos de utilizar redes neurais colocam desafios para

organizações governamentais que queiram usar esta tecnologia para fins finalidade

de tomada de decisão. A possibilidade de descriminação e como isto interage com

a privacidade é discutida mais profundo abaixo.

Outro ponto-chave de diferenciação entre a IA e as tecnologias analíticas

existentes é o potencial de automatizar todas estas áreas, onde os humanos têm

sido historicamente capazes de exercer um alto grau de controlo sobre o

processamento dos dados, o incremento do uso da IA significa que este pode já

não ser o mesmo caso. Além disso, a aplicação da IA às tecnologias existentes está

em posição de alterar o seu uso e considerações da privacidade actuais de modo

profundo. Por exemplo, o uso de câmaras de segurança em espaços públicos para

finalidades de vigilância é uma prática bastante difundida comum e não é

considerada demasiadamente intrusiva invasiva na sociedade moderna. Porém, a

combinação de uso de software de reconhecimento facial e , uma rede de câmaras

pode ser transformada numa ferramenta que é muito mais invasiva da privacidade.

A IA também tem o potencial de mudar as maneiras como os seres humanos

interagem com as máquinas. Por exemplo, muitas da IA já se introduziram

características humanas. O uso de interfaces antropomórficas, tais como vozes

12

com som humano utilizadas em assistentes como Alexa e Siri, pode provocar as

novas preocupações sobre a privacidade. As pesquisas em ciências sociais indicam

que as pessoas têm tendência a interagir com a tecnologia como se fosse humana.

16 Isto significa que as pessoas podem ter maior probabilidade de desenvolver

relações de confiança com IA concebida para replicar características humanas, e

consequentemente estar mais inclinadas para partilhar informação

progressivamente mais pessoal quando comparadas com outras formas de

tecnologia que recolhem informação através de uma forma tradicional.

Muito do discurso sobre a privacidade da informação à volta da IA não

contabilizou as assimetrias de poder entre instituições que acumulam dados e os

indivíduos que a produzem.17

Os modelos actuais geralmente tratam os dados

como um bem que pode ser comercializado, o que não reconhece totalmente a

dificuldade para as pessoas em tomar decisões sobre os seus dados quando lidam

com sistemas que não compreendem – particularmente quando o sistema os

entende bem e aprendeu, via a ingestão dos seus dados, como manipular as suas

preferências. Além disso, muitos algoritmos adaptativos usados em IA mudam

constantemente, ao ponto de que frequentemente aqueles que os criam não

conseguem explicar na integra os resultados que geram.

As noções estabelecidas de privacidade de informação baseiam-se na ideia de

que os humanos são os principais tratadores de informação e não foram

concebidos para competir com a capacidade computacional da IA que não se

conforma a ideias tradicionais de recolha e tratamento de dados18

. A forma como

pensamos actualmente sobre conceitos tais como consentimento, aviso e o que

significa ter acesso ou controlar informação pessoal nunca antes foram tão

fundamentalmente desafiados como estão a ser pela IA. Como foi sublinhado

acima, incorporar considerações de privacidade como parte de um modelo ético

pode ajudar na criação de IA que não prejudica a privacidade da informação à

medida que estes conceitos evoluem.

4.2 Informação Pessoal

A PDP Act e muitas outras peças de lei de privacidade da informação apenas

protegem informação pessoal. Neste sentido, a definição de o que constitui

informação pessoal funciona como “porteiro” às protecções jurídicas que são

disponibilizadas aos indivíduos. A definição da informação pessoal pode variar

entre jurisdições e evolui a par das normas legais e da sociedade. As novas

tecnologias também podem mudar o âmbito da informação pessoal à medida que

16 Stanford University, ‘Artificial Intelligence and Life in 2030’, One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Section III: Prospects and Recommendations for Public Policy, Setembro de 2016, disponível

em: http://ai100.stanford.edu/2016-report; Kate Darling, Extending legal protection to social robots: The effects of

anthropomorphism, empathy, and violent behavior towards robotic objects, 2012. 17 Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, ‘AI Now 2017 Report’, AI Now, 2017,

disponível em: https://ainowinstitute.org/AI_Now_2017_Report.pdf, p 28. 18 Ibid

13

as novas formas de informação são criadas. Por exemplo, os dispositivos de fitness

criam informação sobre os indivíduos que anteriormente não existia, mas que

actualmente pode ser considerada informação pessoal.

Em geral, o conceito da informação pessoal baseia-se na ideia de

identificabilidade – se ou não a identidade duma pessoa seria razoavelmente

determinada a partir dessa informação. Porém, a distinção entre o que é e não é

considerado “pessoal” está a ser desafiado pela capacidade incremental de ligar e

associar dados a indivíduos, mesmo onde anteriormente se pensava estar

desconectado ou não serem dados não identificadores à partida. Neste aspecto, a

combinação de informação aparentemente não pessoal pode se tornar informação

pessoal quando analisada ou correlacionada. À medida que a quantidade de dados

disponíveis aumenta e as tecnologias de processamento e combinação melhoram,

torna-se progressivamente mais difícil avaliar se uma peça de dados fornecida é

“identificável”; considerar uma peça de dados em isolamento não é compatível

com a tecnologia de IA, e já não é um reflexo verdadeiro de se algo pode ser

considerado ‘informação pessoal’.

Muito do valor da IA está na sua capacidade de identificar padrões invisíveis à

visão humana, aprender e fazer previsões sobre indivíduos e grupos. Neste sentido,

a IA pode criar informação que é de outra forma difícil de recolher ou não existe já.

Isto significa que a informação a ser recolhida e utilizada pode se estender além do

que originalmente foi divulgado com conhecimento por um individuo. Uma parte

da esperança das tecnologias preditivas é que as deduções podem ser realizadas de

outros pedaços de dados (aparentemente não-relacionados e inócuos). Por exemplo,

um sistema de IA produzido para efectuar um processo de recrutamento mais

eficiente pode ser capaz de inferir a inclinação política de um candidato de outra

informação que o mesmo forneceu, e a seguir incorporá-lo no processo de tomada

de decisão.

Inferir informação deste modo não só desafia o que é considerado informação

pessoal, mas também levanta questões sobre se é aceitável inferir informação

pessoal sobre um indivíduo que optou por não o revelar. Outras questões, tais

como quem controla a informação, e se a mesma é sujeita a princípios de

privacidade da informação – incluindo o requisito de informar o indivíduo que a

informação foi recolhida sobre eles por meio de inferência – também foram

levantadas.

A noção binária actual dae informação pessoal já está a ser desafiada por

tecnologias mainstream, e ainda assim a IA ofusca a distinção ao ponto em que ,

ou seja, o que é e o que não é “‘informação pessoal”’ se está a tornar

consideravelmente mais difícil de definir. A emergência incrementada da IA

poderá provavelmente levar a um ambiente em que toda a informação que é gerada

por ou relacionada com um individuo é seja identificável. Nesta situação,

14

determinar o que é ou não protegido pela lei da privacidade de acordo com a

definição da informação pessoal não irá provavelmente ser técnica ou legalmente

prático, nem particularmente útil como um modo eficaz de proteger a privacidade

de indivíduos. Muitas pessoas argumentam que existe uma necessidade de mudar o

modo de um entendimento binário de em relação à informação pessoal para que a

lei da privacidade continue a proteger a privacidade da informação dos indivíduos

num ambiente da IA.

4.3 Recolha, objectivo e utilização

Os três principais pilares de informação que original das Directrizes da OCDE

são:

Limitação da recolha: A recolha de informação pessoal deve ser limitada

ao que é necessário; a informação pessoal deve apenas ser recolhida

através de meios legais e justos, e adequados, deve ainda ser recolhida

com o conhecimento e/ou consentimento do indivíduo.

Especificação da finalidade: a finalidade da recolha de informação

pessoal deve ser especificada ao indivíduo no momento da recolha.

Limitação da utilização: A informação pessoal apenas deve ser usada ou

divulgada para o propósito para o qual foi recolhida, a não ser que haja

consentimento ou autoridade legal para fazer o contrário.

O objectivo destes princípios interligados é de minimizar a quantidade de

informação que qualquer organização tem sobre um individuo, e de assegurar que

a forma como a informação é tratada é consistente com as espectativas do

individuo. A IA desafia fundamentalmente todos os três destes princípios.

4.4 Limitação da recolha

A própria natureza de muitas das técnicas da IA, em particular Machine

Learning, baseia-se na “absorção” de quantidades gigantes de dados para treinar e

testar algoritmos. Recolher estas quantidades de dados pode ajudar ao

desenvolvimento da IA, mas também se pode opor directamente ao princípio de

limitação da recolha. Os desenvolvimentos tecnológicos em dispositivos da IoT,

telemóveis e o rastreamento na web significam que os dados que são alimentados

aos sistemas de IA não são frequentemente recolhidos em transacções tradicionais

onde as pessoas fornecem conscientemente a sua informação pessoal a alguém que

apresenta o pedido.19 De facto, muitos indivíduos não estão totalmente cientes da

quantidade de informação a ser recolhida sobre eles dos seus dispositivos e

subsequentemente a ser usada como dados de entrada por sistemas de IA. Isto cria

um nível de conflito porque limitação daa recolha de informação pessoal é

19 Information Accountability Foundation, Artificial Intelligence, Ethics and Enhanced Data Stewardship, 20 de Setembro

de 2017, p 6.

15

incompatível com a funcionalidade das tecnologias de IA e os dispositivos que

recolhem dados para as apoiar, mas recolher tais quantidades de informação cria

riscos de privacidade inerentes.

4.5 Especificação da finalidade

Fornecer uma explicação do objectivo da recolha (geralmente através de um

aviso de recolha) é como a maioria das organizações adere ao princípio de

especificação da finalidade. A capacidade da IA de extrair significado de dados

além daquele para o qual foram inicialmente recolhidos apresenta um desafio

significativo para este princípio. Em alguns casos, as organizações podem não

saber necessariamente de antemão como a informação vai ser usada pela IA no

futuro. Existe um risco de recolha excessiva de dados além do necessário, “por

precaução”, utilizando avisos excessivamente abrangentes e políticas de

privacidade numa tentativa de “cobrir tudo”. Este tipo de prática permite às

organizações afirmar cumprimento técnico com as suas obrigações, mas é

desonesto e inconsistente com a objectivo base do princípio limitação da recolha.

Mais, acaba por afectar negativamente a capacidade dos indivíduos de exercerem

um controlo significativo sobre a sua informação pessoal.

Por outro lado, a IA pode ser uma alavanca para melhorar a capacidade dos

indivíduos de especificar as suas preferências sobre como a sua informação

pessoal é usada. Por exemplo, não é fora do razoável imaginar serviços que são

capazes de aprender as preferências de privacidade dos seus utilizadores e aplicar

diferentes condições aos dados que estão a ser recolhidos sobre diferentes

indivíduos. Deste modo, a IA pode ser instrumental no estabelecimento de

modelos individualizados, com base em preferências que tem o potencial de

alcançar objectivos de transparência, consentimento e espectativa razoável da lei

da privacidade da informação, de forma ainda mais eficaz que o presente modelo

de aviso e consentimento.

4.6 Limitação da utilização

Logo que a informção pessoal seja recolhida, o princípio da limitação da

utilização pretende assegurar que a informação pessoal só sje utilizada para o

objectivo para o qual foi recolhida. Em geral, as organizações têm permissão para

usar a informação pessoal para objectivos secundários que seriam “razoavelmente

expectáveis” do individuo. Isto levanta a questão de se a informação a ser usada

como dados de entrada para um sistema de IA pode ser considerado um “objectivo

secundário razoavelmente esperável”, dado que em muitas instâncias o resultado

de o fazer pode ser desconhecido ao individuo. Tal como a IA pode sublinhar

padrões e relações nos dados não antecipadas por seres humanos, também pode

revelar os potenciais novos usos para essa informação. Combinando isto com as

questões da especificação do objectivo acima, é provável que as organizações

16

venham a encontrar dificuldades em assegurar que as informações pessoais apenas

são usadas para o objectivo para o qual foram recolhidas ao utilizar tecnologias de

IA.

A premissa de que as pessoas, em particular os jovens ou “nativos digitais”,

estão a tornar menos preocupadas com a privacidade da sua informação pode

provocar uma ideia de que um objectivo secundário razoavelmente expectável para

o uso da informação seria demasiado abrangente. Isto não é necessariamente o

caso. O Boston Consulting Group descobriu que para 75% dos consumidores na

maioria dos países, a privacidade da informação pessoal permanece uma questão

muito importante e que as pessoas em idades entre os 18 e os 24 são apenas

ligeiramente menos cautelosas que as gerações mais velhas.20 Isto indica que as

pessoas não estão, por defeito, menos preocupadas com como a sua informação

pessoal está a ser utlizada, só porque a tecnologia se está a tornar comum, e por

isso podem nem sempre olhar para o uso da sua informação pessoal pela IA como

um objectivo secundário razoavelmente expectável.21 É provável que a IA venha

toldar a distinção entre o que é considerado um objectivo primário e secundário, a

ponto de que a exequibilidade do principio de limitação da utilização pode ser

reconsiderado.

Face ao exposto, os princípios da especificação da fnalidade, da limitação da

recolha e da limitação da utilização são desafiados significativamente pela IA. A

recolha de dados em massa, frequentemente por meios que não são óbvios aos

indivíduos; avisos de recolha vagos ou enganadores; e a presunção de que as

pessoas estão mais confortáveis com o uso secundário da sua informação do que

estão na realidade, leva à situação em que o entendimento actual da privacidade

através destes princípios pode deixar de ser efectivo. Porém, a IA também trás

oportunidades de revolucionar a forma como os princípios tradicionais de

privacidade são concretizados. Por exemplo, treinar um algoritmo de Machine

Learning em quantidades gigantescas de dados num ambiente seguro antes de ser

divulgado pode por sua vez permitir um aumento na segurança dos dados.

A difusão do uso da IA irá requerer que alteremos a forma como aplicamos os

princípios tradicionais de privacidade – se isto constitui uma melhoria ou um

retrocesso nos padrões de protecção da privacidade, é uma questão que ainda não

tem resposta. Ao considerar a privacidade como um elemento base dentro de um

modelo ético para o desenvolvimento da IA, existe potencial para as organizações

melhorarem as práticas de avisos de recolha e permitir aos indivíduos ter uma

interacção mais diferenciada e informada com as organizações sobre o uso – e o

20 John Rose, Christine Barton, & Rob Souza, ‘The Trust Advantage: How to Win with Big Data’, Boston Consulting

Group, Novembro de 2013, disponível em:

https://www.bcg.com/publications/2013/marketing-sales-trust-advantage-win-with-big-data.aspx. 21 Por exemplo, um inquérito do Pew Research Center de 1.002 utilizadores adultos realizado em 2013 concluiu que 86%

tomou medidas online para remover ou mascarar a sua pegada digital, e 68% acreditava que as leis actuais não eram boas

e suficientes na protecção da privacidade online. Ver Anonymity, privacy, and security online, Pew Research Centre, 2013.

17

uso secundário – da sua informação.

4.7 Transparência e consentimento

O nosso entendimento actual da privacidade da informação baseia-se na

capacidade de os indivíduos exercerem escolhas face à informação que terceiros

têm de eles e o que é feito com esta. Porém, a complexidade que rodeia a IA pode

significar que os processos não são claros aos indivíduos cuja informação está a

ser usada, fazendo com que o consentimento realmente informado não seja

atingível. Por exemplo, as técnicas de deep learning podem colocar desafios à

transparência, já que fornecer uma explicação sobre como as conclusões são

retiradas pode por vezes ser difícil mesmo para aqueles que desenvolvem

inicialmente os algoritmos, e ainda mais para indivíduos normais. As organizações

terão dificuldade em ser transparentes nas suas práticas de IA ou em obter

consentimento, se não conseguirem comunicar os processos aos cidadãos.

Existe muitos estudos sobre a emergência de um paradoxo de privacidade, no

qual as pessoas apresentam a preocupação com a sua privacidade, mas em prática

continuam de livre vontade a oferecer a sua informação através dos sistemas e

tecnologias que usam. 22 Uma interpretação deste paradoxo indica que mesmo

estando informados, os indivíduos, frequentemente não tem opção senão entrar

num “contrato inconsciente” para permitir que os seus dados sejam utilizados.23

Neste sentido, muitos sentem-se resignados com a utilização dos seus dados

porque consideram que não há outra alternativa, em vez de terem uma recepção

positiva.24

Uma complexidade incremental das redes e sistemas que usamos,

combinada com uma crescente variedade de métodos de recolha de dados torna

uma resposta binária sim/não ao consentimento no início de uma transação

progressivamente menos significativa no mundo moderno. 25

Enquanto que as

tecnologias de IA provacam muitos destes desafios, estas também têm o potencial

de ser uma solução, ao apresentar novos modos de explicar aquilo que está a

acontecer aos dados de um individuo dentro de cada camada de processamento, ou

permitindo a plataformas individualizadas para que cada pessoa exerça o

consentimento.

Uma via potencial para aumentar a transparência, e também fiscalizar, desafiar

e restringir a tomada de decisões que tenha ocorrido sem envolvimento humano,

está a ser explorada no “direito à explicação”. Um direito deste género

proporciona aos indivíduos uma capacidade de questionar decisões que os afectam,

22 Patricia A. Norberg, Daniel. R. Horne & David A. Horne, ‘The privacy paradox: Personal information disclosure

intentions versus behaviors’, Journal of Consumer Affairs, Vol. 41, No.1, 2007, pp 100–126; Bettina Berendt, Oliver Gunther & Sarah Spiekermann ‘Privacy in e-commerce: Stated preferences vs. actual behavior’, Communications of the

ACM, Vol. 48, No. 4, 2005, pp 101–106. 23 Sylvia Peacock, ‘How web tracking changes user agency in the age of Big Data; the used user’, Big data and society, Vol. 1, No. 2, 2014, disponível em: http://m.bds.sagepub.com/content/1/2/2053951714564228. 24 ICO, Big data, artificial intelligence, machine learning and data protection, 2017, p 24. 25 Ibid., p 30.

18

que tenham sido feitas numa base puramente algorítmica.26 Apesar do desafio

tecnológico actual de o estabelecer, muitas figuras essenciais na comunidade da IA

vêm a transparência das decisões, ou a “explicabilidade” como integral ao

desenvolvimento e manutenção da confiança numa relação em evolução entre

seres humanos e máquinas inteligentes.27

Existe muitos trabalhos realizados para construir algoritmos que possam

explicar como e porque vieram a produzir o seu resultado.28 Com este tipo de

capacidade, a IA pode potencialmente facilitar a transparência, no sentido em que

seria capaz de explicar de forma clara as decisões e ser testada por viés – um

processo que nem sempre é atingível para decisores humanos. Do ponto de vista

legal e das políticas, este direito está a ser explorado no Artigo 22.o do

Regulamento Geral sobre a Protecção de Dados da União Europeia. Ainda não é

claro o quão eficaz este vai ser, com alguns críticos a argumentar que

permanecerão “falhas práticas e conceptuais sérias,” visto que o direito apenas se

aplica a decisões puramente automatizadas, o que raramente é o caso.29

4.8 Discriminação

A privacidade da informação é geralmente considerada como um direito

capacitante, isto significa que muitos dos seus valores estão na sua característica

de capacitar outros direitos humanos a serem concretizados, tais como os direitos

de livre associação e de expressão. As protecções à privacidade também podem

ajudar à protecção contra discriminação atravé de aplicação de controlos sobre

como a informação sobre uma pessoa pode ser recolhida, usada e revelada. Por

exemplo, informação relativa à origem étnica ou orientação sexual de um

individuo tem protecções mais fortes nos termos da lei da privacidade. Isto é

devido à natureza inerentemente sensível da informação, e o seu objectivo é

minimizar o risco de dano que possa ser causado ao tomar decisões com base nisso.

Um dos assuntos éticos mais relevantes na IA, com ramificações imediatas, é o seu

potencial de discriminar, perpetuar vieses e exacerbar desigualdades existentes.

Pelo que os algoritmos são treinados com dados existentes, estes podem acabar por

replicar padrões indesejados de injustiça, devido aos dados que absorveram.30

Além disso, aqueles que criaram os sistemas podem sem saber introduzir os

seus próprios vieses humanos na funcionalidade. Pelo facto de a IA desafiar a

capacidade de a privacidade da informação operar como tem feito historicamente,

26 Toby Walsh, It's Alive! Artificial Intelligence from the logic piano to killer robots, Latrobe University Press, 2017, pp 150-151. 27 Por exemplo, tal como Ruslan Salakhutdinov (Director de investigação de IA na Apple e Professor Associado na

Carnegie Mellon University) em Will Knight, ‘The Dark Secret at the Heart of AI’, MIT Technology Review, 11 de Abril de 2017, disponível em: https://www.technologyreview.com/s/604087/the-dark- secret-at-the-heart-of-ai/. 28 Por exemplo, ver o trabalho de Preservação da Privacidade por Data61 e CSIRO, disponível em

https://www.data61.csiro.au/en/Our-Work/Safety-and- Security/Privacy-Preservation. 29 Lilian Edwards & Michael Veale, ‘Enslaving the Algorithm: From a ‘Right to an Explanation’ to a ‘Right to Better

Decisions’?’, IEEE Security & Privacy, 2017, p 5. 30 Ibid., p 2.

19

a segurança contra a discriminação que a privacidade de informação disponibiliza

como direito capacitante arrisca a ser desmantelado. É interessante como a

tecnologia de IA também tem o potencial de minimizar a discriminação se for

desenvolvida tendo em conta estas questões – ao remover ou apoiar o elemento

humano de muitos processos de tomada de decisão, os vieses humanos inatos

podem ser evitados.

5. Responsabilização e governança

A governança e a supervisão são defendidas na lei da privacidade da

informação para assegurar que as estruturas apropriadas estão estabelecidas para

prevenir um desequilíbrio de poder entre cidadãos e governo. Isto apoia-se no

esforço por parte dos reguladores em garantir que a inforação pessoal está a ser

tratada de forma adequada. Os desafios ao nosso entendimento da privacidade de

informação, sublinhados nas secções acima são replicados no que toca a uma

regulamentação eficaz da tecnologia da IA.

A dificuldade de regular a tecnologia tem sido discutida noutros locais de

forma aprofundada,31 porém, algumas considerações com particular relevância

para a IA e a privacidade de informação incluem:

A tecnologia da IA não está confinada a um estado ou jurisdição, dificultando

a criação e a manutenção de boas práticas de privacidade e governança

transfonteiriças.

Determinar quem controla os dados, onde estão armazenados e quem tem a

responsabilidade por eles é uma tarefa complexa para os reguladores.

A boa governança precisa de ser baseada num entendimento da tecnologia. À

medida que a IA continua a desenvolver rapidamente, o desfasamento de

longa data entre a lei e a tecnologia continua a aumentar enquanto a

complexidade e a ampla aplicação da IA continua a aumentar.

A extensão à qual o governo deve regular a IA, notando que a ausência de um

modelo regulatório para a IA em relação à privacidade de informação, é uma

decisão regulatória em si.

Os bons modelos de governança podem ser utilizados para promover bom

design, estrutura e supervisão de tecnologias de IA, e como estas interagem com a

privacidade. Ao criar um ambiente no qual os direitos e as protecções em geral são

consagradas, a regulamentação pode promover o desenvolvimento de sistemas

automatizados que estão apoiados pela privacidade da informação, de acordo com

o conceito da abordagem à protecção da privacidade, os seja, “Privacidade desde a

concepção”.

31 Ver Michael Kirby, ‘The fundamental problem of regulating technology’, Indian JL & Tech, Vol. 5, 2009.

20

A governan da privacidade não pode ser atingida apenas via controlo do

top-down por parte dos reguladores; aqueles que controlam os dados e os que

criam a tecnologia devem estar envolvidos na concepção de sistemas que reforcem

a privacidade.32

6. Conclusão

Já vivemos num mundo de “megadados”, e a expansão da capacidade

computacional através da IA está em posição de alterar drasticamente o campo da

privacidade da informação. Uma vida conectada através de dispositivos da IoT e

tecnologia de cidades inteligentes – alimentada pela IA – promete um sem número

de potenciais benefícios, incluindo uma utilização mais dinâmica de recursos,

aumento da eficiência e um maior nível de vida. As possibilidades que a

tecnologia de IA pode disponibilizar nos cuidados de saúde, no sistema de justiça e

em serviços governamentais são imensos. Porém, tal como muitas tecnologias

antes dela, a IA apresenta desafios sociais, tecnológicos e jurídicos em relação a

como entendemos e progetemos a privacidade da informação.

Este documento passou por algumas das informações fundamentais

respeitantes às considerações sobre a privacidade da IA, e como a IA irá requerer

que o nosso entendimento do que é informação pessoal seja revista. Porém,

enquanto que os princípios de longa data sobre privacidade de informação tenham

de ser re-conceptualizados, a emergência da IA não significa que a privacidade vai

deixar de ser importante ou de existir. A privacidade oferece um importante

modelo para tomada de decisões éticas sobre como desenvolvemos, utilizamos e

regulamos as novas tecnologias. Também vai continuar a ser integral ao como

mediamos as nossas identidades, desenvolvemos um sentido de identidade e

concretizamos outros direitos incluindo a liberdade de expressão e associação.

Responder às questões de privacidade levantadas pela IA será fundamental para o

seu sucesso a longo prazo.

No futuro, o nosso entendimento da IA e da privacidade pode vir a ser

alterado no seu foco do aspecto da recolha da privacidade de informação para uma

enfatização dos mecanismos de segurança que asseguram que a informação é

tratada de forma ética e responsável assim que for obtida. As tentativas de

controlar ou limitar a recolha de dados tenderão a tornar-se cada vez mais difíceis

à medida que as tecnologias de recolha de dados se tornam omnipresentes. Como

tal, alterar o enfase para a questão de uma “custódia ética de dados” após a recolha

dos dados tem sido proposta como uma opção. Isto irá requerer um compromisso

genuíno com a transparência e a responsabilidade através de boas práticas de

governança.

32 Information Accountability Foundation, Artificial Intelligence, Ethics and Enhanced Data Stewardship, 20 de Setembro

de 2017, p 15.

21

O governo tem um papel importante a desenvolver na criação de um ambiente

em que o compromisso com a criação de uma IA segura e justa pode ser

equilibrado com o progresso tecnológico.33 O equilíbrio certo requer uma

abordagem consultiva e interdisciplinar, pelo que uma regulamentação excessiva,

inapropriada ou mal aplicada pode atrasar a adopção da IA ou não abordar os seus

reais desafios. Aproveitar os modelos de privacidade da informação existentes,

bem como re-imaginar conceitos tradicionais serão uma componente-chave de

construir, usar e regulamentar a IA.

7. Leitura complementar

Uma lista de recursos complementares foi compilada aqui para uma maior

leitura introdutória. Nota-se que estes recursos foram acedidos pela última vez em

Maio de 2018.

- Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, AI

Now 2017 Report, AI Now, 2017, disponível em:

https://ainowinstitute.org/AI_Now_2017_Report.pdf.

- Matt Chessen, ‘The AI Policy Landscape’, Medium, Março de 2017,

disponível em:

https://medium.com/artificial-intelligence-policy-laws-and-ethics/the-ai-landscape

-ea8a8b3c3d5d.

- Matt Chessen, ‘What is Artificial Intelligence? Definitions for policy-makers

and non-technical enthhusiats’, Medium, Abril de 2017, disponível em:

https://medium.com/artificial-intelligence-policy-laws-and-ethics/what-is-artificial

-intelligence-definitions-for-policy-makers-and-laymen- 826fd3e9da3b.

- DL4J Introduction to Deep Learning and Neural Networks resources,

disponível em: https://deeplearning4j.org/ai-machinelearning-deeplearning.

- Information Commissioner's Office, UK, Big Data, artificial intelligence,

machine learning and data protection, 2017, disponível em:

https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-

data-protection.pdf.

- Will Knight, The Dark Secret at the Heart of AI, MIT Technology Review , 11

de Abril de 2017, disponível em:

https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/ .

33 Esta abordagem está actualmente a ser explorada no Regulamento Geral sobre a Protecção de Dados da União Europeia.

Ver o Artigo 35.º