Ai todos os cérebros e qualquer ética Fox News
NovoVocê pode ouvir os artigos da Fox News agora!
Um relatório da PolySades Research em fevereiro de 2025 mostra que os modelos racionais de IA não têm uma bússola moral. Eles vão trair em alcançar seus objetivos. Os Big Language Models (LLM), assim chamados, apresentarão incorretamente o grau que eles combinaram nos costumes sociais.
Nenhum deles deve se surpreender. Vinte anos atrás, Nick Bostrome testou um pensamento para que uma IA foi convidada a criar um clipe de papel com mais eficientemente. Dado o mandato e a agência, ele acabará destruindo toda a vida para produzir clipes de papel.
Isaac Asimov viu seu “eu, robô” chegando a As histórias que consideram como um cérebro robótico “marginal” ainda machuca as pessoas podem estar errado.

O contexto moral/moral em que a IA opera os modelos racionais é compassivamente pequeno. (Getty Fig.)
Um exemplo significativo, a história “Runarand” mantém uma ferramenta de mineração de robôs em Mercúrio. Se duas pessoas nos planetas voltarem para casa, elas precisam trabalhar. No entanto, o robô afirma seguir a ordem e a reivindicação de se preservar. Como resultado, é redondo em torno de minerais inadequados, ignorando sua primeira ordem para proteger a vida humana no quadro geral que é desconhecido.
Economia desempregada de entrada de IA recebida: quem pagará impostos?
E o quadro geral é o problema aqui. O contexto moral/moral em que a IA opera os modelos racionais é compassivamente pequeno. Nesse contexto, existem regras escritas do jogo. Não inclui todas as regras não escritas, pois não deve manipular seu oponente. Ou não mentir para proteger seus próprios interesses percebidos.
Da mesma forma, a IA pode não incluir inúmeras considerações éticas espalhadas de cada decisão para o contexto de modelos racionais que produzem qualquer humano ou IA. É por isso que a ética é forte e, mais complexa a situação, mais difícil elas são. Não há “você” em uma IA e “I”. Existem simplesmente instruções, processos e reações.
Então “faça com os outros …” realmente não funciona.
AI está reiniciando o negócio. É assim que ficamos à frente da China
Uma bússola moral em humanos é desenvolvida através da socialização, com outras pessoas. Este é um processo incompleto. No entanto, ainda nos deixou viver em uma sociedade ampla, variada e vasta complexa sem nos destruir
Uma bússola moral se desenvolve lentamente. Para desenvolver um forte conceito de ética, leva anos da infância à juventude. E muitos ainda pegam e trazem um perigo constante aos seus colegas. O milênio levou o milênio para desenvolver moralidade suficiente de nosso poder para a destruição e a autodestruição humana. Simplesmente as regras do jogo nunca são eficazes. Pergunte a Moisés, ou Muhammad, ou Jesus, ou Buda, ou Confúcio e Mensius, ou Aristóteles.
Será capaz de explicar o impacto de suas atividades em milhares de pessoas e sociedade em diferentes situações em diferentes situações? Depende do complexo ambiente natural do qual todos dependemos? Nesse ponto, muito bem pode até distinguir entre justo e trapaça. E como eles podem fazer? A justificação não pode ser reduzida por nenhuma regra.
Ai não pode esperar: por que precisamos de velocidade para ganhar
Talvez os testes que você deve se lembrar de que os macacos de cepuchina se recusaram a ser “salário desigual” para executar a mesma tarefa? Isso o torna ainda mais do que qualquer IA no caso de moralidade.
A ausência de uma socialização da IA e a ausência de evolução contínua podem ter uma idéia de moralidade, o que é claramente difícil de ver, para o qual os modelos atuais não têm poder para treinar treinamento humano. E mesmo assim, eles estão sendo Treinado, Não Composto Eles não estão se tornando morais, estão simplesmente aprendendo mais regras.
Não faz do tio da IA. Tem muita capacidade de se sair bem. No entanto, torna a IA perigosa. Assim, está alegando que as pessoas morais criam as diretrizes que criaremos para qualquer tecnologia perigosa. Não precisamos correr para a AI Anarchy.
Clique aqui para mais notícias da Fox
Eu dei uma mordida nesse comentário, com base nos eventos que foram totalmente relatados publicamente. Mas após a reflexão, entendi duas coisas: primeiro, estava usando a tragédia de alguém para meus momentos de gotas microfones; E segundo, os envolvidos podem ser feridos. Eu deixei cair.
É imoral usar a dor e a dor dos outros para promover os próprios interesses. São algumas pessoas, pelo menos a maioria de nós sabe. É algo que a IA nunca entende.
Clique aqui para obter o aplicativo Fox News



