Macau Visto de Hong Kong VozesInteligência artificial ao serviço do suicídio (II) David Chan - 30 Set 2025 A semana passada, falámos sobre um casal californiano que processou a empresa de tecnologia OpenAI e o seu director executivo, Sam Altman, por ter o chatbot gerador de inteligência artificial, ChatGPT, fornecido informação e incentivado o seu filho Ryan, de 16 anos, a cometer suicídio. Este caso não é complexo, mas as questões jurídicas, éticas e tecnológicas que levanta são dignas de reflexão alargada. Embora os pais de Ryan tenham movido uma acção contra a OpenAI e e contra o seu director executivo, Sam Altman, estamos perante um processo cível e não um processo crime. A razão é simples: é uma tecnologia recente e actualmente carece de regulamentação legal. Se o incentivo ao suicídio é um crime, então deve ser condenado. No entanto, não existe actualmente nenhuma lei que prevejan a possibilidade deste incentivo partir de plataformas de Inteligência Artificial, impossibilitando assim acções criminais. A situação é semelhante para os processos cíveis. Como não há uma lei que estipule que o suicídio induzido por IA é ilegal, os pais de Ryan só puderam mover uma ação judicial de “responsabilidade pelo produto” com base na alegação de “produto defeituoso”. O sucesso d processo dependerá de os tribunais da Califórnia aceitarem a argumentação legal. Do ponto de vista ético, Altman declarou que a OpenAI estava a tentar encontrar formas de notificar as agências governamentais competentes se de futuro um menor discutisse seriamente com o ChatGPT questões relacionadas com suicídio e a empresa não conseguisse contactar os pais. No entanto, este método não deve avançar porque vai contra a política da empresa de protecção da privacidade. Afirmou ainda que o ChatGPT não deve apoiar nem contestar nada, o que significa que não deve tomar posição. Do ponto de vista tecnológico, a IA é incapaz de compreender as complexidades do pensamento humano. Por exemplo, se uma pessoa diz para outra ; Da próxima vez que nos encontrarmos, tomamos um chá; a IA apenas interpreta como; De futuro, num momento qualquer, duas pessoas vão tomar chá. No entanto, se estas palavras forem apenas um acto de cortesia, e na verdade aquele que as escreveu não tiver intenção de rever o outro, existe aqui uma complexidade psicológica que está fora do alcance da actual tecnologia de IA. Quando a IA não consegue compreender o verdadeiro significado de uma frase, como é que os utilizadores podem interpretar as suas respostas? Depois de considerar as questões legais, éticas e tecnológicas, que medidas podemos efectivamente tomar para resolver os problemas levantados pela IA? O ChatGPT, originário dos Estado Unidos, deverá ser regido pela lei norte-americana. Em resposta ao caso Ryan, esperamos que este país considere a rápida adopção de leis que regulem a responsabilidade cível e criminal de quem usa a IA para fins ilegais. Os utilizadores do ChatGPT estão espalhados por todo o mundo. Ao implementar leis que regulem o sector, os EUA devem permitir que utilizadores de outros países possam recorrer aos tribunais americanos para pedir indemnizações ou para mover acções semelhantes à dos pais de Ryan. Imaginemos um utilizador britânico que se confronta com uma situação similar. Se o Reino Unido não tiver legislação específica, os pais do menor não têm outra opção senão mover o processo nos EUA. Só com protecção legal adequada poderão os utilizadores de todo o mundo continuar a aceder com confiança ao ChatGPT. Se uma empresa que gere o ChatGPT descobre que um menor está a morbidamente interessado no suicídio e não consegue contactar os seus pais, mas não liga à polícia por motivos de protecção de privacidade, isso significa que a privacidade tem mais valor do que a vida? Em que termos é que pode a empresa escolher entre proteger a privacidade e salvar uma vida? Deve violar a privacidade para salvar uma vida, ou deve fechar os olhos perante um potencial suicídio e proteger a privacidade? As questões éticas são mesmo assim; nenhuma escolha é fácil. Se o direito à privacidade e o direito à vida forem incompatíveis, poderá o ChatGPT ignorar certas perguntas limitando-se a não dar resposta? Ou poderá dar uma resposta que seja simplesmente, “Esta questão poderá ser ilegal, por isso recuso-me a responder. O utilizador deve consultar um advogado antes de decidir se deve prosseguir.” O caso Ryan é apenas o começo dos problemas com a IA. Quanto mais implantada estiver esta tecnologia, mais questões surgirão. Coisas mais inesperadas e bizarras serão reveladas de futuro. Para além de desenvolver a tecnologia e aperfeiçoar a qualidade da IA, os fabricantes também deve envidar esforços para lembrar constantemente os funcionários das suas responsabilidades sociais, da importância da ética empresarial e da necessidade de os produtos cumprirem os padrões de segurança. As empresas de IA podem tomar a iniciativa de realizar “auditorias de éticas”, com auditores externos, durante as auditorias financeiras anuais para avaliar se os empregados estão à altura dos padrões éticos empresariais e se a consciência ética da empresa é suficiente. Este procedimento daria aos utilizadores muita tranquilidade. A promoção e a educação são essenciais para que os utilizadores compreendam correctamente a IA. Se perceberem que a IA é apenas um método informatizado de divulgação de informação, desprovido de quaisquer emoções humanas, ficarão naturalmente menos inclinados a confiar nas suas respostas e o número de casos complicados irá diminuir. Apenas ao compreender totalmente as limitações da IA e apostando continuamente no aperfeiçoamento poderemos maximizar os seus benefícios. Consultor Jurídico da Associação para a Promoção do Jazz em Macau Professor Associado da Faculdade de Ciências de Gestão da Universidade Politécnica de Macau Email: cbchan@mpu.edu.mo