Inteligência artificial (I)

No passado de 31 de Maio, alguns jornais de Hong Kong anunciaram que várias centenas de cientistas, liderados pot Sam Altman, Director-Executivo da Open AI, – uma empresa recente que desenvolveu o chat robótico, com base em inteligência artificial, ChatGPT – bem como o cientista Xin Dun, conhecido como o “Padrinho da Inteligência Artificial”, e executivos da Google e da Microsoft assinaram conjuntamente uma carta, divulgada através da organização sem fins lucrativos “Center for AI Safety”, na qual solicitam a interrupção das investigações em sistemas mais avançados do que o GPT-4, alegando que o mau uso da inteligência artificial (IA), pode ter consequências graves para a humanidade.

O ChatGPT é usado principalmente em sistemas de IA interactivos. Recentemente, foi noticiado que a Universidade de Hong Kong proibiu os estudantes de usarem o ChatGPT para redigirem os seus trabalhos académicos o que demonstra o poder deste sistema informático. O GPT-4 é uma das versões da aplicação ChatGPT, que está adequado a um vasto leque de tarefas processadas por computador e comandadas por voz, como produção de textos, compreensão de linguagem humana, resposta a perguntas, tradução, etc.

Recentemente, o Presidente Xi Jinping declarou que é necessário aperfeiçoar o nível do processamento de dados em rede e da segurança do uso da IA.

Casos semelhantes ao acima mencionado ocorreram no passado mês de Março, quando mais de 1.800 líderes da área tecnológica assinaram uma carta aberta. Entre eles encontravam-se nomes como Bill Gates da Microsoft, apelando a uma moratória sobre o desenvolvimento de sistemas de IA mais avançados do que o GPT-4, durante os próximos seis meses. Na carta pergunta-se se os sistemas de IA devem substituir os humanos em todas as tarefas possíveis? Devem os humanos desenvolver “mentes” artificiais para substituir as suas próprias mentes? Devemos perder o controlo das nossas civilizações? Na carta afirma-se que se não for imposta de imediato uma moratória a seis meses, o Governo deve intervir e impô-la ele mesmo. Os laboratórios de IA e os peritos independentes devem aproveitar esta oportunidade para desenvolverem e implementarem em conjunto protocolos de segurança para a IA avançada, sujeitos a auditoria e supervisão rigorosas por peritos externos independentes.

Um apelo semelhante foi feito em 2018. No relatório “O Uso Pernicioso da Inteligência Artificial: Previsão, Prevenção e Mitigação” publicado por 26 peritos em IA, assinala-se que os abusos nesta área terão consequências desastrosas. São disso exemplo os vídeos falsos e a pirataria informática.

Em Junho de 2019, surgiu um software de tecnologia de redes neurais que despia as pessoas retratadas em fotografias e, a partir daí, criava imagens pornográficas. Estas imagens podem depois ser usadas para criar vídeos falsos. Se alguém publicar um vídeo falso, comete um delito e fica sujeito a uma pena, mas quando é o computador a publicar um vídeo falso na Internet, através de um sistema de IA, como é que pode ser responsabilizado? Para além do aspecto da responsabilidade criminal, é preciso salientar que a nudez obscena não pode ser exibida perante crianças nem circular online. Como é que a sociedade lida com vídeos obscenos produzidos por software de tecnologia de redes neurais? Não existe só uma resposta a pergunta, mas não deixa de ser uma questão moral e social.

Quem detém os direitos dos áudios e vídeos produzidos pelo software de tecnologia de redes neurais? A legislação dos direitos de autor, estipula que quem faz o vídeo detém os direitos e tem de receber uma percentagem sobre a sua comercialização. Neste caso, os direitos pertencem ao fabricante do software que gerou o vídeo e o áudio falsos, ou à pessoa que usou o software para os criar? Esta pergunta não tem uma resposta simples já que não existe legislação nem acordo entre as partes.

Ao nível tecnológico actual, quando nos referimos à IA estamos a falar da capacidade que os computadores passam a ter para simular a inteligência humana, para aprender e resolver problemas. A IA pode ser sub-dividida em três fases, nomeadamente, Inteligência Artificial Limitada, Inteligência Artificial Geral e Super Inteligência Artificial. Actualmente estamos a desenvolver o segundo estádio de IA.

A primeira fase é a Inteligência Artificial Limitada, que se foca numa única tarefa e tem um desempenho repetitivo. O software AlphaGo é um exemplo típico desta fase. Embora o AlphaGo possa ganhar o campeonato mundial de xadrez, não consegue desempenhar outras tarefas. Estão também incluídos nesta fase os sistemas de condução não tripulada, o uso de robots para automatizar a produção, o uso de IA para avaliar riscos, prever tendências de mercado, etc.

A segunda fase é a Inteligência Artificial Geral, e significa que o sistema informático, à semelhança de um ser humano, tem capacidade para desempenhar qualquer tarefa intelectual. Como já foi mencionado, o “Center for AI Safety” apelou para que fosse suspensa toda a investigação em sistemas mais avançados do que GPT-4, que é exactamente o foco do desenvolvimento da IA nesta segunda fase. O Congresso americano intimou Sam Altman, Director Executivo da Open AI, para responder a questões sobre o ChatGPT. Durante a audiência, Sam Altman afirmou que é “muito importante” que o Governo americano regule esta indústria à medida que a IA se desenvolve.

Nick Bostrom, filósofo da Universidade de Oxford e especialista em IA, define a fase III, a Super Inteligência Artificial como “inteligência que ultrapassa largamente os maiores cérebros humanos em quase todos os domínios, incluindo a criatividade científica, a inteligência geral e as competências sociais.” Uma metáfora simples pode ilustrar a situação desta fase. Os seres humanos têm que estudar por muito tempo para se tornarem engenheiros e enfermeiros, mas a Super Inteligência Artificial pode aperfeiçoar-se continuamente enquanto os seres humanos não conseguem fazê-lo.

Na próxima semana, continuaremos a nossa discussão sobre os efeitos negativos da IA nas nossas sociedades e sobre a melhor abordagem para lidar com a situação.


Consultor Jurídico da Associação para a Promoção do Jazz em Macau
Professor Associado da Escola de Ciências de Gestão do Instituto Politécnico de Macau
Blog: http://blog.xuite.net/legalpublications/hkblog
Email: legalpublicationsreaders@yahoo.com.hk

Subscrever
Notifique-me de
guest
0 Comentários
Inline Feedbacks
Ver todos os comentários