A confiabilidade da inteligência artificial (II)

“Artificial intelligence is changing our world faster than we can imagine? It will impact every area of our lives. And this is happening whether we like it or not. Artificial intelligence will help us do almost everything better, faster, and cheaper, and it will profoundly change industries, such as transportation, tourism, healthcare, education, retail, agriculture, finance, sales, and marketing. In fact, AI will dramatically change our entire society.”
“Artificial Intelligence: 101 Things You Must Know Today About Our Future” – Lasse Rouhiainen

[dropcap]A[/dropcap] segunda área-chave diz respeito à força de trabalho ensinando os cidadãos e os especialistas de IA a trabalharem em conjunto. A melhoria da qualificação de profissionais não conhecedores da Ciência de Dados e IA para trabalhar com esta, tornou-se uma parte crucial da estratégia da força de trabalho, e uma nova classe de ferramentas, incluindo a Aprendizagem Automática de Máquina (AutoML na sigla em língua inglesa) que é a automatização do processo total de aplicação de aprendizagem de máquina a problemas do mundo real e que simplificam e automatizam parte do processo de criação de modelos de IA, está a democratizá-la e cerca de 38 por cento dos líderes empresariais concentrarão esforços em ferramentas de IA para pessoas envolvidas em negócios, como a capacidade de segundo nível que cultivarão por trás de conjuntos de dados e modelos reutilizáveis.

Todavia a IA amigável ao utilizador ainda é um processo complexo e mesmo com formação básica, os líderes empresariais podem não entender completamente os diferentes parâmetros e níveis de desempenho dos seus algoritmos e poderiam acidentalmente aplicá-los de forma errada, com resultados não intencionais. A resposta é uma estratégia de força de trabalho que cria três níveis de funcionários experientes em IA, e fornece meios para que todos trabalhem em conjunto com êxito. A força de trabalho é composta por cidadãos utilizadores, desenvolvedores de cidadãos e cientistas de dados.

À medida que a IA se dissemina, a maioria dos funcionários de uma empresa precisará de formação para se tornarem cidadãos utilizadores do sistema, aprendendo como devem usar os aplicativos avançados da empresa, dar suporte à boa governança de dados e obter ajuda especializada quando necessário. Um grupo mais especializado, talvez de 5 a 10 por cento da sua força de trabalho, deve receber formação adicional, para se tornarem desenvolvedores de cidadãos que são profissionais de negócios, utilizadores avançados e podem identificar casos de uso e conjuntos de dados e trabalhar em estreita colaboração com os especialistas de IA.

Quanto às novas aplicações de IA, um pequeno mas crucial grupo de engenheiros e cientistas de dados fará o trabalho pesado para criar, implantar e gerir aplicativos de IA. Para colocar esses três grupos em funcionamento, é necessário identificar sistematicamente novas competências e funções profissionais e desde logo surgem perguntas como o tipo de trabalho que é necessário para que os utilizadores ou desenvolvedores possam manipular? Quais os aplicativos que exige um cientista de dados experiente? É necessária então uma abordagem igualmente sistemática para preencher esses papéis, interna e externamente, e incentivar os diferentes grupos a colaborar.

A qualificação profissional em toda a empresa deve abordar tanto as competências técnicas quanto as formas digitais de trabalho. As estruturas de desempenho e compensação terão que se adaptar, e muitos trabalhadores serão bem-sucedidos na qualificação para preencher novas funções, mas alguns não poderão fazer a transição, e nesse caso torna-se imprescindível a preparação para algum volume de negócios.

Conhecer o desafio de empregos da IA é essencial e para muitos líderes empresariais, tentar dimensionar o impacto da IA nos empregos tornou-se uma tarefa absurda, pois sabem o que acontece e qual a quantidade do que está em jogo, seja grande ou pequeno em número, e quando constitui tema de debate.

As previsões variam amplamente, incluindo as do estudo de automação de empregos internacionais, que colocaram o impacto de curto prazo em menos de 3 por cento dos empregos perdidos até 2020, mas chega a 30 por cento na metade da década de 2030. Os líderes empresarias sondados, concordam que, por enquanto, a IA não está a tirar empregos nas suas organizações e de facto, o dobro de executivos afirmou e que a IA levará a um aumento no número de funcionários (38 por cento), e os que disseram que a IA levará a cortes de empregos (19 por cento) na sua organização. O desafio, neste momento, é de preencher vagas e 31 por cento dos líderes empresariais estão preocupados com a incapacidade de dar resposta à procura por competências de IA nos próximos cinco anos.

O ensino de competências adicionais a um empregado pode criar utilizadores e desenvolvedores de cidadãos, mas é provável que se necessite de contratar programadores e cientistas de dados altamente treinados. Forjar parcerias com universidades e alunos é uma forma de começar. A cultura do local de trabalho também é um grande factor. Muitos especialistas em IA querem trabalhar para uma empresa que pense em usar o sistema por longo prazo e também valorizam os locais de trabalho com a configuração organizacional, recursos, definição de funções, pesquisa empolgante e empoderamento individual que os inspirará a fazer um óptimo trabalho em colaboração com outras pessoas talentosas.

A terceira área-chave contende com a confiança traduzida em responsabilizar a IA em todas as suas dimensões, pois aumentaram as preocupações sobre a mesma, que pode afectar a privacidade, segurança cibernética, emprego, desigualdade e o meio ambiente. Os clientes, trabalhadores, consultores, reguladores e parceiros corporativos questionam se podem confiar na IA, daí que não seja surpresa que os líderes empresariais digam que garantir que os sistemas de IA sejam confiáveis é o principal desafio de 2019, e como vão superar esse desafio, depende se estão a trabalhar com todas os aspectos da IA responsável, como seja a justiça, interrogando se estão a minimizar os dados e modelos da mesma e estarão a trabalhar com preconceitos quando a usam?

A questão de interpretabilidade é importante pois derivam várias questões como a possibilidade de explicar como um modelo de IA toma decisões? Se podem garantir que essas decisões sejam precisas? A questão da robustez e segurança traz interrogações sobre a possibilidade de confiar no desempenho de um sistema de IA? Se os sistemas de IA estão vulneráveis a ataques? A questão da governança põe questões sobre quem é responsável pelos sistemas de IA? Se existem os controlos apropriados? A questão da ética do sistema interroga se os sistemas de IA estão em conformidade com os regulamentos e como afectarão os trabalhadores e clientes?

É necessário construir a responsabilidade por cada área, seja dentro da IA CoE ou em um grupo adjacente que trabalhe de perto com o CoE. Um número cada vez maior de empresas está a supervisionar a IA responsável por meio de conselhos de ética ou directores de ética em tecnologia, como parte das suas atribuições. É uma tendência encorajadora, que é de esperar que se desenvolva. É também necessário criar funções de trabalho que combinem conhecimento técnico com um entendimento de preocupações reguladoras, éticas e de reputação.

É importante configurar controlos e balancear conflitos de escolha e para estabelecer controlos sobre os dados, algoritmos, processos e estruturas de relatórios da IA, é fundamental a existência de equipas combinadas de especialistas técnicos, comerciais e de auditoria interna que testem e monitorizem continuamente os controlos. Tais equipas terão que considerar as compensações apropriadas e com a interpretabilidade, por exemplo, podem encontrar o equilíbrio certo entre desempenho, custo, importância do caso de uso e extensão da experiência humana envolvida. É de entender que um carro autónomo, um diagnóstico de assistência à saúde por IA e uma campanha de marketing conduzida por IA exigiriam diferentes níveis e tipos de interpretabilidade e controlos relacionados.

As outras formas de tornar a IA mais confiável vêm dos seus avanços, particularmente na área da IA Explicável (XAI na sigla em língua inglesa). O programa XAI da Agência de Projectos de Pesquisa Avançada de Defesa dos Estados Unidos (DARPA na sigla em língua inglesa), por exemplo, está a trabalhar em algoritmos mais interpretáveis. A XAI é uma agência do Departamento de Defesa dos Estados Unidos, responsável pelo desenvolvimento de novas tecnologias para uso militar. Foi criado em 1958 como uma consequência tecnológica da Guerra Fria e da qual surgiram as bases da ARPANET, a rede que deu origem à Internet.

[primeira parte]
Subscrever
Notifique-me de
guest
0 Comentários
Inline Feedbacks
Ver todos os comentários