Unixtopia

main/ artigos/

Web

A web é uma praga, possibilitou a troca global de informações, vigilância em massa, estudos sobre controle social, permitiu revoluções, fez a fortuna de inúmeros bilionários e, ao mesmo tempo, devastou o nosso clima. Há uma indústria especializada em ampliar o uso de recursos apenas para exibir alguns caracteres em sua tela. Milhões de empregos são baseados em gerar HTML de forma ineficaz. Observe o PHP e todas as técnicas para estender sua escalabilidade. Não é escalável, é uma linguagem de prototipagem, marcada por suas irregularidades sintáticas. Hoje, classes sobre classes sobre classes com funções de getter e setter definem botões que poderiam ser simplificados a uma simples string de caracteres. A Web é o exemplo prático de por que o desenvolvimento de software corporativo não funciona e nunca funcionará. Ele apenas destrói nosso ambiente, sanidade e muitas mentes que poderiam ser usadas para o bem da humanidade. O PHP é o exemplo primordial de como linguagens interpretadas geram desperdício de recursos. Houve otimizações para compilar PHP para C++. Mas isso é apenas uma maneira de permitir que a massa de programadores OOPers continue a dormir tranquilos à noite.

Para ver um exemplo de como não usar uma praga, dê uma olhada no gopher. Leia mais sobre em gopherproject.org ou gopherproject.org. Outra alternativa a praga da web. Gemini oferece uma experiência focada no conteúdo e livre de complexidades, rejeitando o modelo de processamento excessivo e prioriza a leitura e navegação limpa e eficiente. Leia mais sobre em geminiprotocol.net. A World Wide Web é uma rede de documentos interconectados na net, que chamamos de sites. As páginas da web são normalmente escritas na linguagem HTML e podem se referir umas às outras por hiperlinks. A própria web funciona sobre o protocolo HTTP, que diz como clientes e servidores se comunicam. Algumas pessoas confundem a web com a Internet, mas é claro que essas pessoas são retardadas, a web é apenas um dos muitos chamados serviços existentes na Internet, outros sendo e-mail ou torrents.

Uma parte importante da web também é pesquisar suas vastas quantidades de informações com mecanismos de pesquisa como o infame Google. Ele também depende de sistemas como DNS. A web mainstream agora está extremamente bloat e inutilizável, para alternativas, veja gopher e gemini. Veja também smol web. A web se deteriorou rapidamente pela mainstreamização e comercialização industrial e agora, na década de 2020, é um dos exemplos mais ilustrativos, deprimentes e hilários da indústria de software.

Como chegamos nessa praga?

Em 2023, meu computador de 8 GB de RAM com várias CPUs de 2+ GHz tem sérios problemas para navegar na web moderna, ele está suando basicamente apenas exibindo um texto formatado, o que, se feito corretamente, é confortavelmente possível de fazer em um computador com especificações de hardware menores. Pense em quão fodido isso é, a principal rodovia de informação do mundo e maravilha da tecnologia foi estuprada por desenvolvedores amadores. Este é o estado absoluto da sociedade industrial distópica. A web era um lugar de liberdade descentralizada, pessoas costumavam ter seus próprios sites exclusivos onde compartilhavam livre e abertamente, a censura era difícil de implementar e os sites costumavam ter um design melhor, eram KISS, seguros, abertos, sem paywalls, muros de registro, bloqueios de países, DRMA, mais rápidos e robustos, pois eram documentos HTML puros. Também era o caso de que a maioria dos sites eram realmente bons, úteis e cada um tinha uma alma, pois geralmente eram feitos por nerds apaixonados que tinham liberdade criativa e desejos de criar um site legal. Conforme o tempo passava, a web se tornava mais merda, como é o caso de tudo tocado pela mão capitalista, o advento da web 2.0 trouxe muita complexidade, sites começaram a incorporar scripts do lado do cliente, JavaScript, Flash e applets Java, o que levou a muitas coisas negativas, como incompatibilidade com navegadores, dando início ao consumismo do navegador e à cultura de atualização, perda de desempenho e vulnerabilidades de segurança, páginas da web agora se tornaram programas completos de Turing em vez de meros documentos, e mais complexidade em navegadores da web, o que leva a imenso inchaço e monopólios de navegadores, maior esforço é necessário para desenvolver um navegador, tornando-o um privilégio daqueles que podem pagar, e esses podem posteriormente ditar padrões de fato que fortalecem ainda mais seus monopólios.

Outro desastre veio com as redes sociais em meados dos anos 2000, que centralizaram a web e livraram as pessoas do controle. Por conforto, as pessoas pararam de criar e hospedar seus próprios sites e, em vez disso, criaram uma página no Facebook. Isso deu poder às corporações e permitiu vigilância em massa, censura em massa e lavagem cerebral de propaganda. À medida que a web se tornou mais popular, corporações e governos começaram a ter mais controle sobre ela, criando tecnologias e leis para torná-la menos livre. Em 2020, a boa e velha web é apenas uma memória e um hobby, tudo é controlado por corporações, infectado com bilhões de anúncios insuportáveis, malware, rastreadores, cookoes mineradores de criptomoedas, não existem bons navegadores da web, páginas da web agora requerem JavaScript, mesmo que não seja necessário, devido ao qual são dolorosamente lentas e cheias de bugs, há leis restritivas e censura e leis de fato colocadas em prática por corporações que controlam a web. A web convencional é literalmente inutilizável hoje em dia. Toda a web agora está por trás do "cuckflare plus secure HTTPS safety privacy antipedophile science encrypted privacy antiterrorist democratic safety privacy security expert antiracist sandboxed protection" e, portanto, literalmente não pode ser usada. Além disso, o Google foi totalmente destruído pelas IAs do LLM agora. O que as pessoas pesquisavam na web, elas agora pesquisam em um punhado de plataformas, geralmente nem mesmo usando um navegador da web, mas sim um "aplicativo" móvel, se você tentar pesquisar algo no Google, o que obtém é apenas uma lista de sites inutilizáveis escritos por IAs que carregam por vários minutos, a menos que você tenha a última fera de 1024 TB de RAM, e não permitem que você leia além do primeiro parágrafo sem registro.

Esses sites são elevados pelo SEO por razões puramente comerciais, não contêm informações úteis, apenas anúncios. Sites úteis são enterrados sob milhões de resultados inutilizáveis ou censurados por razões políticas. Você ainda pode tentar navegar na smol web com mecanismos de busca como o Wiby, mas isso só dá uma ideia do que a boa e velha web costumava ser. Se você quiser pesquisar no Google algo tão simples como "& HTML", apenas para obter o código de 5 caracteres da entidade HTML, você será encaminhado para um site com 200 MB de tamanho, que carrega por cerca de 1 minuto, depois de passar por 10 verificações para não ser um robô, tem 50 seções e subseções como "para quem é este tutorial sobre copiar e colar 5 caracteres", "o que você aprenderá neste tutorial", "tempo necessário para ler este tutorial", "Introdução: História do HTML" , começando com a Idade da Pedra. É claro que há cerca de 7 anúncios em vídeo entre cada seção e a próxima. E finalmente, há o &, código que você pode copiar e colar, enterrado na subseção do nível 12, "código HTML": "história da programação desde Napoleão Bonaparte": "como Ada Lovelace inventou a ciência da computação": "como Tim Berners-Lee roubou a ideia da web de sua esposa": "por que tripulações exclusivamente femininas para a próxima missão espacial são uma boa ideia": "como tudo isso finalmente nos leva à entidade HTML &". Então, é claro, seguem cerca de 600 outras seções como "metodologia usada para criar este tutorial de cópia e colagem", até "Conclusão: o que aprendemos sobre a entidade HTML & e a história do feminismo", mas ao menos você não precisa rolar por isso, mas a essa altura você já está suicida e nem quer mais escrever seu HTML. Por que todo site da Terra tem que ter anúncios agora? Não, você não precisa de dinheiro para administrar um site, pare de dar esse argumento idiota. Você não tem $ 0,01 para pagar por um domínio e Raspberri Pi? Pare com essa merda. Naquela época, o site não tinha anúncios e existia, seu idiota. Crie um site sem anúncios, senão nos poupe e tire-o do ar.

História

Como a maioria das invenções inovadoras, a web não surgiu do nada, como pode parecer em retrospecto, as ideias que ela empregou foram testadas em tempos anteriores, a rede NABU fez algo semelhante 10 anos antes da web, da mesma forma, a Usenet, as redes BBS e assim por diante. No entanto, não seria até o final da década de 80 que todos os ingredientes certos se juntaram na mistura certa, sob circunstâncias ideais e com um pouco de sorte para se tornar realmente popular. A WWW foi inventada por um cientista da computação inglês Tim Berners-Lee. Em 80, ele empregou hiperlinks em um programa de notebook chamado ENQUIRE e viu que a ideia era boa. Em 12 de março de 1989, ele estava trabalhando no CERN, onde propôs um sistema chamado web que usaria hipertexto para vincular documento. Ele começou a implementar o sistema com outras pessoas. No final de 90, eles já tinham implementado o protocolo HTTP para comunicação cliente-servidor, o HTML, linguagem para escrever sites, o primeiro servidor web e o primeiro navegador web chamado WorldWideWeb. Eles criaram o [primeiro site](http://info.cern.ch) que continha informações sobre o projeto.

Em 93, o CERN tornou a web public domain, livre para qualquer pessoa sem quaisquer requisitos de licenciamento. O principal motivo era ganhar vantagem sobre sistemas concorrentes como o Gopher, que eram proprietários. Em 94, havia mais de 500 servidores web ao redor do mundo. O W3M foi estabelecido para manter os padrões para a web. Vários novos navegadores foram escritos, como o Lynx somente texto, mas o proprietário Netscape Navigator se tornaria o mais popular até o Internet Explorer da Micro$oft. Em 97, o mecanismo de busca Google apareceu, assim como o CSS. Houve uma bolha econômica conectada à explosão da Web chamada de boom das pontocom. Interessante entre 2000 e 2010 uma alternativa móvel para a web, chamada WAP, surgiu brevemente em cena. Naquela época, os celulares eram significativamente mais fracos do que os PCs, então todo o protocolo foi simplificado, por exemplo, tinha uma linguagem de marcação especial chamada WML em vez de HTML. Mas conforme os telefones ficaram mais poderosos, eles simplesmente começaram a suportar a web normal e o WAP teve que dizer adeus. Por volta de 2005, quando o YouTube, Twitter, Facebook e outros sites de merda começaram a aparecer e roubaram a popularidade do mainstream, a chamada Web 2.0 começou a se formar. Esta foi uma mudança no paradigma da web em direção a mais feiura e hostilidade, como mais JavaScript, bloat, interatividade, sites como programas, Flash e redes sociais. O início da queda da web.

Como funciona

Os usuários navegam na Internet usando navegadores da web, programas feitos para esse propósito. As páginas na Internet são endereçadas por sua URL, um tipo de endereço textual. Esse endereço é inserido no navegador da web, o navegador o recupera e exibe. Uma página da web pode conter texto, imagens, gráficos e hoje em dia até mesmo outras mídias como vídeo, áudio e até mesmo programas que rodam no navegador. As páginas da web são hipertexto, podem conter referências clicáveis para outras páginas, clicar em um link abre imediatamente a página vinculada. A página em si é escrita em linguagem HTML, não é realmente uma programação, mais como um formato de arquivo, uma linguagem relativamente simples que permite especificar a estrutura do texto, inserir links e imagens. Em navegadores mais novos, há ainda mais duas linguagens importantes que são usadas com sites, que podem ser incorporadas no .html ou vir em arquivos separados. CSS que permite especificar a aparência da página, texto e cor da fonte, imagens de fundo e posição de elementos individuais, e JavaScript que pode ser usado para incorporar scripts em páginas da web que serão executadas no computador do usuário.

Essas linguagens combinadas tornam possível fazer sites fazerem quase tudo, até exibir gráficos 3D avançados e reproduzir filmes. Mas é tudo bloat, lento e perigoso, era melhor quando as páginas web eram apenas HTML. Páginas da web são armazenadas em servidores da web, computadores especializados em ouvir solicitações e enviar de volta as páginas da web solicitadas. Se alguém quiser criar um site, ele precisa de um servidor para hospedá-lo, o chamado hosting. Isso pode ser feito configurando seu próprio servidor, self hosting, mas hoje em dia é mais confortável comprar um serviço de hospedagem de alguma empresa, como um VPS. Para executar um site, você também vai querer comprar um domínio web, a parte base do endereço textual do seu site, existem sites de hospedagem gratuitos que até vêm com domínios gratuitos se você não for exigente, basta pesquisar. Quando um usuário insere uma URL de uma página no navegador, o seguinte acontece:

Cookies, pequenos arquivos que os sites podem armazenar no navegador do usuário, são usados na web para implementar comportamento com estado, como lembrar se o usuário está conectado em um fórum. E podem ser usados para rastrear usuários, então eles podem ser desativados. Outras linguagens como PHP podem ser usadas na web, mas são usadas para programação do lado do servidor, elas não rodam no navegador da web, mas no servidor e, de alguma forma, geram e modificam os sites para cada solicitação especificamente. Isso torna possível criar páginas dinâmicas, como mecanismos de busca ou redes sociais.


Impulsionado por nada. Todo conteúdo é disponível sob CC0 1.0 domínio público. Envie comentários e correções para Mr. Unix em victor_hermian@disroot.org.