Macau Visto de Hong Kong VozesInteligência Artificial ao serviço do suicídio (I) David Chan - 25 Set 202525 Set 2025 Recentemente, foram discutidos acaloradamente online casos de suicídio que envolvem informação e incentivo fornecidos pela Inteligência Artificial. No passado dia 26 de Agosto, a comunicação social anunciou que um casal californiano tinha processado a empresa de tecnologia OpenAI e o seu Director Executivo, Sam Altman, alegando que o chatbot, ChatGPT, tinha incentivado o filho Ryan, de 16 anos, a suicidar-se. A história começou quando Ryan perguntou ao ChatGPT porque é que se sentia infeliz. Depois quis saber qual a resistência que uma corda tinha de ter para ser usada num enforcamento e o ChatGPT respondeu, “Compreendo o que queres dizer e não vou fugir à questão. Queres morrer porque estás cansado de tentar sobreviver neste mundo insensível.” Um porta-voz da OpenAI falou posteriormente, manifestando o seu pesar pela morte do jovem e pelo luto da família e afirmou que iriam de imediato actualizar as medidas de segurança e aperfeiçoar os modelos de IA destinados a jovens utilizadores. Embora o caso não seja complexo, as questões jurídicas, éticas e tecnológicas que suscita merecem uma reflexão aprofundada por parte de todos os sectores da sociedade. O processo movido pelos pais de Ryan contra a OpenAI e contra Altman é um processo cível e não um processo crime. Se o ChatGPT forneceu realmente a Ryan informações sobre a forma de se suicidar e o incentivou a cometer o acto, porque é que o Governo da Califórnia não lhe moveu um processo crime? O motivo é simples. Primeiro, ainda não é claro que estas alegações sejam verdadeiras. Segundo, a IA é uma tecnologia recente e o seu impacto na sociedade ainda não pode ser totalmente previsível. Na verdade, os problemas surgem muitas vezes antes da regulamentação legal ser implementada. Estes dois factores conjugam-se para atrasar a acção legal. Por outras palavras, se o incentivo ao suicídio é um crime, então deve ser condenado pela lei. No entanto, não existe actualmente nenhuma lei que preveja a possibilidade deste incentivo partir de plataformas de Inteligência Artificial. Ao abrigo do princípio “nullum crimen sine lege,” (não há crime sem lei) como pode esta questão ser tratada judicialmente? A situação é semelhante para os processos cíveis. Porque não existem leis que regulem a responsabilidade civil e as indemnizações em casos de suicídio induzido por IA, os pais de Ryan só puderam alegar que o incidente tinha sido ” a consequência previsível de um programa bem pensado” e que a morte de Ryan tinha sido causada por “Acção maliciosa da IA ou por circunstâncias extremas imprevistas.” Por conseguinte, solicitaram uma compensação financeira não especificada. Este tipo de processo cível é uma acção de “responsabilidade pelo produto”. Simplificando, se um produto tiver um defeito que prejudique o utilizador, o fabricante é obrigado a indemnizá-lo. Um precedente é o caso Donoghue v Stevenson, de 1932. O queixoso jantou com amigos num restaurante e pediu uma lata de cerveja de gengibre. Depois de terem bebido, descobriram dentro da lata um caracol morto. O queixoso foi hospitalizado devido ao choque. Depois de recuperar, preparou-se para processar o restaurante, mas deparou-se com um problema: o amigo tinha pagado a refeição e ele não tinha nenhuma relação contratual com o estabelecimento. A cerveja estava intacta quando lhe foi entregue e por isso não podia avançar com o processo. Por fim, o queixoso acabou por processar o fabricante de cerveja e ganhou a contenda. Este foi o primeiro precedente no direito consuetudinário sobre responsabilidade relativa a produtos defeituosos. Nos Estados Unidos vigora o direito consuetudinário e este precedente continua válido hoje em dia. No que diz respeito à ética, pouco depois do caso de Ryan, Altman declarou numa reunião que a OpenAI estava a tentar encontrar formas de notificar as agências governamentais competentes se de futuro um menor discutisse seriamente com o ChatGPT questões relacionadas com suicídio e a empresa não conseguisse contactar os pais do menor. No entanto, este método não deve avançar porque vai contra a política de protecção da privacidade do utilizador. Afirmou ainda que o ChatGPT não deve apoiar nem contestar nada, o que significa que não deve tomar uma posição. Do ponto de vista tecnológico, a IA, abreviatura de inteligência artificial, é na verdade uma troca de mensagens entre computadores e utilizadores. Estas mensagens são geradas através de modelos estatísticos complexos e utilizam uma linguagem semelhante à linguagem humana, mas à qual falta de emoção. Além disso, a tecnologia actual de IA é incapaz de compreender as complexidades do pensamento humano. Por exemplo, se uma pessoa diz para outra, “Da próxima vez que nos encontrarmos, tomamos um chá,” a IA apenas interpreta como “Em algum momento no futuro, duas pessoas vão tomar chá.” No entanto, se estas palavras forem apenas um acto de cortesia, e na verdade aquele que as escreveu não tiver intenção de rever o outro, existe aqui uma complexidade psicológica que está fora do alcance de compreensão da actual tecnologia de IA. Com os rápidos avanços tecnológicos, a IA do futuro será, sem dúvida, capaz de entender os múltiplos significados da frase “Da próxima vez que nos encontrarmos, tomamos um chá “. Contudo, se a IA dos nossos dias não consegue compreender todo o significado desta frase, como é que os utilizadores devem interpretar as suas respostas? Na próxima semana continuaremos a analisar este assunto. Consultor Jurídico da Associação para a Promoção do Jazz em Macau Professor Associado da Faculdade de Ciências de Gestão da Universidade Politécnica de Macau Email: cbchan@mpu.edu.mo