Realmente admito que suas observações são bastante válidas e vou ver junto aos moderadores se consigo editar as partes "nebulosas" com informações mais adequadas para o perfeito entendimento do artigo; agora vamos às minhas ponderações:
1- O fato da tecnologia ter avançado para o que temos hoje não garante que o usuário vai ter acesso às últimas tecnologias e, na maioria das vezes, as máquinas que possuem Linux instalado são basicamente aquelas "que não rodam Windows direito". Nessa situação então temos configurações que ainda rodam em discos rígidos, pouca memória RAM, processadores antigos mono ou dual core sem HT, placas-mãe sem AHCI e outros detalhes técnicos relevantes. Falo isso pois estou nesse meio, minha máquina é um Core2Duo E7400 com 2GB de RAM DDR3 em uma placa-mãe Asrock G41-VS3 (sem AHCI) e disco de 500GB de 5400 rpm e 8MB de cache e as máquinas dos telecentros que administro estão nessa base também;
2- A ZRAM compete diretamente por espaço com a memória RAM e os valores de configuração devem evitar o "empurra-empurra" de dados que eventualmente pode acontecer entre os dois recursos (RAM e ZRAM) e em máquinas muito modestas pode ocorrer isso aqui:
-- Estatísticas do ZRAM (/sys/block/zram0/mm_stat) --
Bytes originais (descomprimidos): 288 MB
Bytes comprimidos (armazenados): 51 MB
Taxa de compressão: 5.62 x
Páginas usadas: 56598528
Operações de compressão: 124723200
Operações de descompressão: 1053
Falhas de compressão: 16137
Falhas de descompressão: 121
Essas falhas na compressão/descompressão podem ser erros por dados já estarem comprimidos, problemas de memória ou o processador não consegue dar conta do trabalho necessário. Nesses casos as "recomendações dos manuais" devem ser revistas e esse artigo foi feito em cima de telecentros comunitários com máquinas montadas com sucata e que se comportam de "modo diferente" em relação às máquinas mais novas. Tem máquinas que estão usando disco IDE em vez de Sata, processadores Celeron e DDR2; as "melhores" por conta do processador tem 2GB de RAM e as mais modestas tem 4GB e nas experiências de uso valores de swappness de 60/40 com 50% da memória RAM do sistema de ZRAM, LZ4 como algoritmo e até uma prioridade baixa (20) para um eventual swapfile no disco se mostraram a melhor combinação;
3- Máquinas mais potentes com SSD/NVMe e/ou +16GB de RAM não sentem tanto o uso da ZRAM e valores como os que você citou podem funcionar muito mais do que os que eu coloquei no artigo: SSD/NVMe possuem baixa latência - muito menor do que discos mecânicos - e a RAM menos ainda, daí concordo com você em deixar a RAM "folgada" para lidar com as requisições do sistema e jogar "o que não vai precisar no momento" para a swap - no caso a ZRAM ou mesmo SWAP em disco. O que eu postei é de experiência de uso, não é de "orelhada", fruto de muita literatura técnica como essas que você citou (e que vou ler também) mas a teoria é diferente da prática.
Veja que não estou contrariado com as suas observações, muito pelo contrário: o debate serve justamente para isso - principalmente corrigir eventuais erros ou "desacertos" - e é bom ver que ainda há pessoas com esse espírito de debate e que expõem suas ideias com argumentos sem serem má-educadas, coisa rara nesse nosso mundo de TI. Vou implementar suas observações no meu dia a dia e volto com os resultados.
Mais uma vez obrigado por ser didático sem ser desrespeitoso.
[4] Comentário enviado por coelhoposa em 29/09/2025 - 19:24h
O vm.swappness já foi de 0 a 100 e, em 2020, isso mudou. O Hardware que usamos mudou. Os computadores não vem mais com aqueles HDDs lentos, onde um "vm.swappness" de 60 seria o ideal, mais sim com SSDs muito mais rápidos, onde um "vm.swappness" mais alto pode ser mais benéfico.
E colocar isso como "mais ou menos ao sistema", com uma porcentagem de RAM que, desde 2020, não corresponde na realidade é tornar a explicação incorreta. Só quis apontar essa questão do "vm.swappness", pois eu vejo muita gente errando nisso e passando informação errada, colocando esse parâmetro como se fosse "Ah, o sistema só vai usar a Swap quando ele chegar em tal porcentagem da RAM usada", quando ele não é isso.
E os parâmetros devem ser usados como eles deveriam ser usados, e essas "convenções" que vem de anos e anos, podem estar incorretas, desatualizadas ou não usando aquele parâmetro da melhor forma.
Por exemplo, a zRAM pode ser melhor aproveitada com um "vm.swappness" com valores acima de 100, pois a RAM é muito mais rápida, e isso é conforme a documentação do Kernel (https://docs.kernel.org/admin-guide/sysctl/vm.html); na documentação do Kernel, o "vm.swappness" é colocado como um "custo" de IO para se usar a Swap; com algumas pessoas usando em 180, para aproveitar que a RAM é ordens de magnitude mais rápida do que qualquer armazenamento.