A filosofia da IA para quem odeia filosofia
A escolha prática
A maioria das pessoas trata a filosofia da inteligência artificial como um debate sobre se os robôs têm alma. Este é um erro que desperdiça tempo e obscurece os riscos reais. No mundo profissional, a filosofia desta tecnologia é, na verdade, uma discussão sobre responsabilidade, precisão e o custo do trabalho humano. Trata-se de quem é responsável quando um modelo comete um erro que custa milhões de dólares a uma empresa. Trata-se de saber se um trabalhador criativo é dono do estilo que passou décadas a aperfeiçoar. Estamos a afastar-nos da era de nos perguntarmos se as máquinas conseguem pensar. Estamos agora na era de decidir o quanto confiamos nelas para agir em nosso nome. A mudança recente na indústria passou de chat bots que contam piadas para agentes que conseguem marcar voos e escrever código. Esta mudança obriga-nos a enfrentar a mecânica da confiança em vez do mistério da consciência. Se odeia filosofia, encare isto como uma série de negociações contratuais. Está a definir os termos para um novo tipo de funcionário que nunca dorme, mas que frequentemente alucina. O objetivo é construir uma estrutura onde os benefícios da velocidade não superem os riscos de uma falha total do sistema.
A mecânica da lógica das máquinas
Para entender o estado atual da indústria, deve ignorar os termos de marketing. Um large language model não é um cérebro. É um mapa estatístico massivo da linguagem humana. Quando escreve um prompt, o sistema não está a pensar na sua pergunta. Está a calcular qual a palavra que tem maior probabilidade de seguir a anterior com base em triliões de exemplos. É por isso que os sistemas são tão bons em poesia, mas tão maus em matemática básica. Eles entendem os padrões de como as pessoas falam sobre números, mas não entendem a lógica dos próprios números. Esta distinção é vital para qualquer pessoa que utilize estas ferramentas num contexto empresarial. Se tratar o output como um registo factual, está a usar a ferramenta incorretamente. É um sintetizador criativo, não uma base de dados. A confusão surge frequentemente da forma como estes modelos imitam a empatia humana. Podem soar gentis, frustrados ou prestáveis, mas estes são apenas espelhos linguísticos. Refletem o tom dos dados com que foram treinados.
A mudança que vimos recentemente envolve uma transição para fundamentar estes modelos em dados do mundo real. Em vez de deixar um modelo adivinhar uma resposta, as empresas estão agora a ligá-los aos seus próprios ficheiros internos. Isto reduz a probabilidade de o modelo inventar coisas. Também altera os riscos da conversa. Já não estamos a perguntar o que o modelo sabe. Estamos a perguntar como o modelo acede ao que nós sabemos. Esta é uma mudança da arte generativa para a utilidade funcional. A filosofia aqui é simples. É a diferença entre um contador de histórias e um arquivista. A maioria dos utilizadores quer o arquivista, mas a tecnologia foi construída para ser o contador de histórias. Conciliar essas duas identidades é o principal desafio para os programadores hoje. Deve decidir se quer uma ferramenta que seja criativa ou uma ferramenta que seja precisa, porque, atualmente, é difícil obter ambas ao nível máximo simultaneamente.
Riscos globais e interesses nacionais
O impacto destas escolhas não se limita a escritórios individuais. Os governos estão agora a tratar o desenvolvimento destes modelos como uma questão de segurança nacional. Nos Estados Unidos, as ordens executivas focam-se na segurança dos sistemas mais poderosos. Na Europa, o AI Act criou uma estrutura legal que categoriza os sistemas por risco. Isto cria uma situação em que a filosofia de um programador na Califórnia pode afetar a legalidade de um produto em Berlim. Estamos a ver um mundo fragmentado onde diferentes regiões têm ideias muito diferentes sobre o que uma máquina deve ter permissão para fazer. Algumas nações veem a tecnologia como uma forma de impulsionar a produção económica a qualquer custo. Outras veem-na como uma ameaça ao tecido social e aos mercados de trabalho. Isto cria um conjunto separado de regras para cada mercado, tornando mais difícil para as pequenas empresas competirem com os gigantes que podem pagar grandes equipas jurídicas.
A cadeia de abastecimento global para esta tecnologia é também um ponto de tensão. O hardware necessário para executar estes modelos está concentrado em poucas mãos. Isto cria um novo tipo de dinâmica de poder entre os países que desenham os chips, os países que os fabricam e os países que fornecem os dados. Para o utilizador comum, isto significa que as ferramentas de que depende podem estar sujeitas a guerras comerciais ou controlos de exportação. A filosofia da IA está agora ligada à filosofia da soberania. Se um país depende de um modelo estrangeiro para o seu sistema de saúde ou jurídico, perde um grau de controlo sobre a sua própria infraestrutura. É por isso que estamos a ver um impulso para modelos locais e nuvens soberanas. O objetivo é garantir que a lógica que governa uma nação não seja propriedade de uma corporação do outro lado do planeta. Este é o lado prático do debate que muitas vezes se perde nas conversas sobre cenários de ficção científica.
Uma manhã com inteligência sintética
Considere um dia típico de uma gestora de marketing chamada Sarah. Ela começa a manhã pedindo a um assistente para resumir três dúzias de e-mails. O assistente faz isto em segundos, mas a Sarah tem de verificar se ele perdeu algum detalhe crucial sobre um corte orçamental. Mais tarde, ela usa uma ferramenta generativa para criar imagens para uma nova campanha. Ela passa uma hora a ajustar o prompt porque a máquina continua a dar às pessoas nas imagens seis dedos. À tarde, ela usa um assistente de codificação para corrigir um erro no site da empresa, mesmo não sabendo programar. Ela é essencialmente a maestrina de uma orquestra digital. Ela não está a fazer o trabalho manual, mas é responsável pelo desempenho final. Esta é a nova realidade do trabalho. É mais sobre edição e verificação do que sobre criação do zero. A Sarah é mais produtiva, mas também está mais cansada. A carga mental de verificar constantemente uma máquina à procura de erros é diferente da carga de fazer o trabalho ela mesma
BotNews.today utiliza ferramentas de IA para pesquisar, escrever, editar e traduzir conteúdo. Nossa equipe revisa e supervisiona o processo para manter as informações úteis, claras e confiáveis.
Os incentivos para a empresa da Sarah também mudaram. Já não contratam escritores de nível inicial. Contratam um editor sénior que usa três modelos diferentes para produzir a mesma quantidade de conteúdo. Isto poupa dinheiro a curto prazo, mas cria um problema a longo prazo. De onde virá a próxima geração de editores seniores se ninguém estiver a fazer o trabalho de nível inicial? Esta é uma consequência da lógica atual de eficiência. Estamos a otimizar para o presente enquanto potencialmente esvaziamos o futuro. Os riscos para os criadores são ainda maiores. Músicos e ilustradores estão a ver o seu trabalho ser usado para treinar os mesmos modelos que agora competem com eles por empregos. Isto não é apenas uma mudança no mercado. É uma mudança no valor que atribuímos ao esforço humano. Devemos perguntar se estamos a valorizar mais o resultado do que o processo, e o que acontece à nossa cultura quando o processo está escondido dentro de uma caixa negra.
- Os líderes das empresas devem decidir se valorizam a velocidade acima do pensamento original.
- Os funcionários devem aprender a auditar o output da máquina como uma competência principal.
- Os legisladores devem equilibrar a necessidade de inovação com a proteção da força de trabalho.
- Os criadores devem encontrar formas de provar que o seu trabalho é humano para manter o seu valor.
- Os educadores devem repensar como avaliam os alunos quando as respostas estão a um clique de distância.
Os custos ocultos da automação
Falamos frequentemente dos benefícios desta tecnologia sem mencionar a fatura. O primeiro custo é a privacidade. Para tornar estes modelos mais úteis, temos de lhes dar mais dados. Somos encorajados a alimentar os nossos horários pessoais, as nossas notas privadas e os nossos segredos corporativos nestes sistemas para obter melhores resultados. Mas para onde vão esses dados? A maioria das empresas afirma que não usa dados de clientes para treinar os seus modelos, mas a história da internet sugere que as políticas podem mudar. Uma vez que os seus dados estão dentro do sistema, é quase impossível retirá-los. Esta é uma troca permanente de privacidade por conveniência. Estamos também a ver um aumento massivo no consumo de energia. Treinar um único modelo grande requer eletricidade suficiente para alimentar milhares de casas durante um ano. À medida que avançamos para sistemas mais complexos, o custo ambiental só irá crescer. Devemos perguntar se a capacidade de gerar uma imagem engraçada de um gato vale a pegada de carbono que gera.
Existe também o custo da verdade. À medida que se torna mais fácil gerar texto e imagens realistas, o valor da prova diminui. Se tudo pode ser falsificado, então nada pode ser provado. Isto já está a afetar os nossos sistemas políticos e os nossos tribunais. Estamos a entrar num período em que a suposição padrão é que o que vemos num ecrã é uma mentira. Isto cria um elevado nível de fricção social. Torna mais difícil concordar sobre factos básicos. A filosofia da IA aqui é sobre a erosão de uma realidade partilhada. Se todos estiverem a olhar para uma versão do mundo que foi filtrada e alterada por um algoritmo, perdemos a capacidade de comunicar eficazmente através dessas divisões. Estamos a trocar uma base social estável por uma experiência mais personalizada e divertida. Esta é uma escolha que fazemos sempre que usamos estas ferramentas sem questionar a sua origem ou a sua intenção.
Tem uma história, ferramenta, tendência ou pergunta sobre IA que acha que deveríamos cobrir? Envie-nos a sua ideia de artigo — gostaríamos muito de a ouvir.
Restrições técnicas e sistemas locais
Para os utilizadores avançados, a conversa é sobre mais do que apenas ética. É sobre os limites do hardware e do software. Um dos maiores obstáculos é a context window. Esta é a quantidade de informação que um modelo pode manter na sua memória ativa de uma só vez. Embora estas janelas estejam a crescer, ainda são limitadas. Se alimentar um modelo com um livro de mil páginas, ele começará eventualmente a esquecer o início quando chegar ao fim. Isto leva a inconsistências em projetos longos. Existe também a questão dos limites da API e da latência. Se o seu negócio depende de um modelo de terceiros, está à mercê do seu tempo de atividade e dos seus preços. Uma mudança repentina nos seus termos de serviço pode quebrar todo o seu fluxo de trabalho. É por isso que muitos utilizadores avançados estão a migrar para armazenamento local e execução local. Estão a executar modelos mais pequenos no seu próprio hardware para manter o controlo e a velocidade.
A integração do fluxo de trabalho é o próximo grande desafio. Não basta ter uma caixa de chat num site. O valor real vem da ligação destes modelos a ferramentas existentes como folhas de cálculo, bases de dados e software de gestão de projetos. Isto requer uma compreensão profunda de como estruturar os dados para que o modelo os possa entender. Estamos a ver o surgimento de RAG, ou Retrieval-Augmented Generation. Este é um método onde o modelo procura informações específicas de uma fonte confiável antes de responder. É uma forma de colmatar a lacuna entre a natureza estatística do modelo e as necessidades factuais do utilizador. No entanto, isto adiciona uma camada de complexidade ao sistema. Tem de gerir o motor de busca, a base de dados e o modelo simultaneamente. É uma solução de manutenção elevada que requer um conjunto específico de competências para gerir eficazmente.
- A quantização permite que modelos grandes funcionem em hardware de nível de consumidor, reduzindo a precisão dos pesos.
- O fine tuning está a tornar-se menos popular à medida que o RAG proporciona melhor precisão factual com menos esforço.
- A tokenização continua a ser um custo oculto que pode tornar certas línguas mais caras de processar do que outras.
- A execução local é a única forma de garantir 100 por cento de privacidade para dados corporativos sensíveis.
- A destilação de modelos está a criar versões mais pequenas e rápidas de modelos gigantes para uso móvel.
O caminho prático a seguir
A filosofia da IA não é uma distração do trabalho. É o trabalho. Sempre que escolhe um modelo, está a fazer uma escolha sobre que tipo de lógica quer que domine a sua vida. Está a decidir que riscos são aceitáveis e que custos são demasiado elevados. A tecnologia está a mudar rapidamente, mas as necessidades humanas permanecem as mesmas. Queremos ferramentas que nos tornem melhores, não ferramentas que nos substituam. Queremos sistemas que sejam transparentes, não sistemas que operem no escuro. A confusão em torno deste assunto é muitas vezes intencional. É mais fácil para as empresas venderem uma caixa mágica do que venderem uma ferramenta estatística complexa. Ao remover o excesso e focar-se nos incentivos, pode ver a tecnologia pelo que ela realmente é. É uma criação poderosa, falível e profundamente humana. Reflete as nossas melhores ideias e os nossos piores hábitos. O objetivo é usá-la de olhos abertos, entendendo as trocas que está a fazer em cada interação. Pode encontrar mais sobre as últimas tendências em machine learning para se manter à frente destas mudanças. Para insights mais profundos sobre a ética destes sistemas, recursos como o Stanford Institute for Human-Centered AI e o MIT Technology Review fornecem dados excelentes. Pode também acompanhar as mudanças legais na secção de tecnologia do New York Times.
Nota do editor: Criamos este site como um centro de notícias e guias de IA multilíngue para pessoas que não são geeks de computador, mas que ainda querem entender a inteligência artificial, usá-la com mais confiança e acompanhar o futuro que já está chegando.
Encontrou um erro ou algo que precisa ser corrigido? Informe-nos.