Ir para conteúdo
  • Cadastre-se

DekWorld

Membro
  • Postagens

    17
  • Registro em

  • Última visita

Informações pessoais

  • Nome
    Tiago de Souza

Meios de contato

  1. Não servido, falei exclusivo e não com Nginx, você que não entendeu minha colocação. Seu post é resumido e padrão não tem nada profundo apenas explicando passos de instalação, fora a VCL que foi dado praticamente um ctrl+c e ctrl +v. Bom era isso e fim do post já que saiu do FOCO e quis de todas as formas defender seu post no qual não tem nada haver com ApacheBooster.
  2. Meu nome é tiago e não Watson. Em nenhum momento disse que Varnish é Webserver, disse para usar ele como cache de imagem que resumindo seria proxy estilo squid como voce disse. Desde o começo da conversa disse que é uma apresentação do ApacheBooster e suas vantagens para iniciante, nem cheguei a se aprofundar no caso, pelo que vi e notei você não deve gostar do Varnish, mais nignuem é obrigado a gostar também. Obs: Apresentação e Instalação de ApacheBooster e não Varnish ok, porém vi eu auto grau de conhecimento e seria interessante abrir um tropic novo para dar uma aula para gente, explicando desde a configuração até funcionamento do Varnish.
  3. Não uso ApacheBooster e nem NginxAdmin, prefiro editar tudo na mão e fazer padronizado para meu melhor uso, editando diretamente via console, prefiro usar scrip shell personalizado por mim, sem usar interface WEB como você. Sobre o ponto direto ou não o foco era uma apresentação do ApacheBooster que tanto questionou, ninguém é obrigado a usar o mesmo e nem NginxAdmin, foi escrito e dado como tutorial para uso de quem estiver interessado e depois se quiser editar, instalar na mão, fazer via NginxAdmin fica critério de cada um, pois se notar é para iniciantes que estão começando a mexer com o mesmo ou tem interesse em algo novo. Sobre pegar as imagens, css, passando como Proxy e usando o cache do mesmo conforme video, vídeo mostra passo a passa para leigos como funciona o sistema de cache de imagens, css, etc. E tudo que falei sobre ambos é baseado na documentação do Autor e não inventado ou pegado de fontes GOOGLE. Sobre a Pipoca aproveita e me traz para mim também já que está achando interessante e engraçado Fundadora. OBS: Me chamo Tiago e não Watson.
  4. Sim conheço e mexo com Squid, sei que não existe Cache para HTTP, porém existe para módulos como Varnish pois se armazena em memória o item e o mesmo pode ser acessado várias vezes sem uma nova consulta o vídeo está bem claro que é assim que funciona. Sobre Interface Web para administração tanto ApacheBooster quanto NginxAdmin podem ser editados na mão, pois o código é aberto, vai do conhecimento de cada um, então não vejo erro algum para ApacheBooster ele vem como padrão algumas funções para iniciantes no assunto no qual pode ser modificado e ficar tão bom quando uma edição via NginxAdmin, sendo que também da para usar NginxAdmin + ApacheBooster só ter conhecimento como disse, seria um erro se o mesmo não funciona-se ou se o código não pude ser editado, sendo que nem assim pois o Autor está passando de GRAÇA o script. Caro Admin, simplesmente julgar uma pessoa que nem conhece dizendo que não tem conhecimento em Varnish é algo egosita com todo respeito, não estou aqui para medir conhecimento com niguem e está fugindo do foco, o Tropic não foi aberto para se falar de configuração profunda e exclusiva de Varnish, como disse antes vai de admin para admin querer usar ou não, sendo que grandes empresas estão usando os 2 juntos, outro detalhe postei sobre ApacheBooster para quem está iniciando em querer mexer com Varnish e Nginx, no qual é muito mais fácil a instalação e compilação, sendo que o código é aberto e pode ser editado na mão e pode ficar igual via NginxAdmin, pois nada mais que é de um editor online que tem as opções pré-selecionadas. Regra básica que pode ser feito com os 2. Ambiente Web = (Varnish(cache + segurança) + Nginx(PHP-APC + PHP-FPM)) – segurança (php-suhosin + waf)) Sendo que acho que não prestou atenção no que quis dizer na forma de trabalhar em conjunto pois o objetivo aqui é mostrar que os 2 juntos se tem melhor resultado que apenas Nginx.
  5. Olá, Varnish não é apenas um proxy funciona com sistema de Cache quando bem configurado também pois sua principal função é ser Cache e não Proxy. Nginx pode ser usado como proxy porém sua principal função é o motor de processamento rápido que ele tem, por isso falei acima usar ele para processar scripts e pedidos ligados enquanto usar Varnish como cache de imagens, css, etc. Outro detalhe em nenhum momento disse para não usar somente Nginx, isso vai de admin para admin e o conhecimento que ele tem. Sendo que ApacheBooster é um script e vem tudo configurado para Varnish e pode ser fácil modificado via WHM esse é objetivo principal desse Tropic para as pessoas que não tem conhecimento profundo. Está bem claro o funcionamento aqui abaixo. Ambiente Web = (Varnish(cache + segurança) + Nginx(PHP-APC + PHP-FPM)) – segurança (php-suhosin + waf)) Os 2 configurados porém determinado funções para ambos trabalharem juntos. Exemplo claro como funciona
  6. Na verdade Varnish é apenas um direcionado ao consultas no qual se reserva, sendo assim se poupa processamento e memória, pois está locado em cache, com isso se ganha performance e rapidez em carregamento de imagens, css, etc. Já o Nginx sistema de cache para o servidor web, também se ganha muita performance, mais se separar consulta de processamento se ganha mais desempenho, por isso normalmente se usa os 2. Varnish para imagens, css, etc Nginx para processamento de scritps . Porém nada impede de usar um ou outro, vai da visão do admin para ver as necessidades do servidor e sua empresa. E um pouco crucial é tudo como foi configurado para se trabalhar junto também, instalar por instalar e não se aprofundar no assunto, não vai conseguir 100% do scritp Nginx e Varnish. Pequeno resumo para entender o motivo de usar os 2 Ambiente Web = (Varnish(cache + segurança) + Nginx(PHP-APC + PHP-FPM)) – segurança (php-suhosin + waf))
  7. Olá a todos, Pessoal que tem pouco conhecimento em Linux e Configuração vou postar um script gratuito que realmente funciona, testado por mim. Teste realizado em Centos 6.3 + WHM/Cpanel Esse script vai instalar Varnish + Nginx e criar um modulo dentro do WHM para gerenciamento e monitoração dos serviços. Quase sempre sai um update novo e correção de BUGS. Vantagem que o código é aberto pode ser modificado, gratuito e funciona. Depois de instalado é só acessar seu WHM e modificar como gostaria ou deixar como padrão pois ao final da instalação já vai estar rodando Varnish + Nginx. Sendo assim com um comando de linha se compila, instala e habilita os serviços de Varnish + Nginx, simples e fácil para quem está com dificuldades em compilar na mão. Com acesso ROOT cd /opt wget http://prajith.in/downloads/updateapachebooster sh updateapachebooster
  8. Autor: Andrei Drusian eMail: drusian[NOSPAM]linuxbsd.com.br Data: 2002 Um cliente proxy se coloca entre o servidor e o cliente de rede, gerenciando o trafego de informações entre ambos. Seu uso mais frequente em redes seria quando os computadores de rede não tem acesso direto à internet, mas podem contar com um servidor de comunicação que tem este acesso. Neste caso, uma das soluções possiveis é a instalação de um Servidor Proxy no computador, que dá acesso à internet, para servir de intermediário entre os navegadores instalados junto a rede e os servidores web da internet. O Squid é um dos softwares mais utilizados como servidor proxy de web e FTP para o sistema operacional Linux. O software é incluido na maior parte das distribuições Linux, e você também pode procurar versões mais atualizadas no site oficial http://www.squid-cache.org/ , juntamente com uma excelente documentação. Passos para configuração do Squid É muito importante que os usuários internos naveguem na internet, e ao mesmo tempo é interessante que o acesso seja controlado, ou seja, tenha que passar por uma deteminada autenticação. Essa autenticação é designada por "usuário e senha", onde o mesmo serrá definido no Servidor Linux que contém o Squid instalado. Neste tutorial, usamos o Squid-2.3STABLE4-10, mas nada impede que seja versões anteriores, ou posteriores. Obs.: O Squid já tem que ter sido configurado para fazer cache de páginas simples. Passo 1 Editar o script de configuração do Squid: # vi /etc/squid/squid.conf Passo 2 Procurar as seguintes linhas: # authenticate_program /urs/bin/ncsa_auth /usr/ etc/passwd# # authenticate_program none As linhas estão comentadas, deve-se descomentar a linha e fazer com que ela fique da seguinte maneira: authenticate_program /urs/bin/ncsa_auth /etc/ squid/passwd Está linha indica, quem vai ser o responsável por chamar a autenticação (ncsa_auth) e qual vai ser o arquivo que vai conter os usuáriso e as senhas (/etc/squid/passwd). O comando ncsa_auth, não existe no diretório que foi mostrado, devemos localiza-lo agora com o comando: # locate ncsa_auth meu resultado foi: /usr/lib/squid/ncsa_auth pode-se utilizar também o comando: find / -name squid_auth Lembrando que a localização deste arquivo pode ser diferente, dependendo de sua distribuição Linux. Devemos copiar este arquivo para /usr/bin com o comando: # cp /usr/lib/squid/ncsa_auth /usr/bin Passo 3 Definir qual a ACL (Access Control List), que vai ser responsável pelo controle de autenticação, como no exemplo abaixo: # acl password proxy_auth REQUIRED Deve se descomentar está linha e fazer com que ela fique da seguinte maneira: acl password proxy_auth "/etc/squid/usuarios" Está linha é responsavel por indicar qual vai ser o arquivo de usuários, que vai conter as senhas, foi criada por um ACL, cujo o tipo é "proxy_auth". Agora devemos criar este arquivo, e dentro dele colocar os usuários que vão ter autenticação. # vi /etc/squid/usuarios drusian fabiano linus Passo 4 Habilitar o uso da ACL criada, fazendo assim com que todos que passem pelo Squid, e quem estiver no arquivo de usuários, utilizem para acesso, um "usuário e senha" adicionando a linha abaixo: http_access allow password http_access deny all Está linha indica que eu aceito o password (http_acces allow password) e nego todo outro tipo de acesso (http_access deny all). Passo 5 Após definido tudo isso temos que criar os usuários e as senhas, este iten se refere ao arquivo que tem que existir no /etc/squid/passwd , um detalhe importante é que ele não pode ser criado por um editor de textos, mas sim com o comando: htpasswd, como no exemplo: htpasswd -c /etc/squid/passwd linus passwd linus New password: Re-type new password: Adding password for user linus Nota-se que este comando cria o arquivo /etc/squid/passwd mediante ao parametro "-c" com o usuário linus e com a senha que desejar. Se for preciso criar mais de um usuário a opção "-c" deve ser retirado como no exemplo: htpasswd /etc/squid/passwd drusian passwd drusian New password: Re-type new password: Adding password for user drusian Passo 6 Pronto está tudo preparado, só falta colocar para funcionar. Este passo tem a finalidade de reler o script de configuração do Squid, e ativar as mudanças, para isso existe duas maneira de fazer: # /etc/init.d/squid restart ou # squid -k reconfigure OBS: não esqueça de configurar o Browser para apontar para o Squid
  9. Normalmente o servidores linux por padrão colocam ^M no final de cada linha, para uma edição ou até mesmo para alguns script incrivelmente se da BUG, principalmente em alguns scripts shell. Para não precisar editar linha por linha existe um programa que faz o serviço todo. Serve em todas versões e distribuições Unix e Linux. Rode como ROOT # dos2unix seuarquivo.sh
  10. Com Acesso ROOT execute. chattr -i /usr/bin/* chattr -i /bin/*
  11. * Precisa de Acesso ROOT e Ter no mínimo 2 HDS na máquina * Depois de uma instalação nova para se fazer. * Exemplo a Baixo é do meu Servidor de Backup que é externo, independente do servidor Web, então não tem necessidade de ter um RAID físico, no qual são 4 HDS em RAID 6. Verificar status do Raid. cat /proc/mdstat Analisando todos os [uUUU] representa que todos os HDS estão sendo sincronizados. Caso mostre [uUU_] significa que um dos HDS não está sincronizado no RAID. Verificar em tempo real. watch -n 1 cat /proc/mdstat Sincronizar Raid Software. Para cada partição Raid fazer o sincronismo. Exemplo: [root@bkp ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid1] md0 : active raid1 sdc2[2] sdb2[1] sda2[0] sdd2[5] 204788 blocks super 1.0 [4/4] [uUUU] md2 : active raid6 sdb3[1] sdc3[2] sda3[0] 3902419968 blocks super 1.1 level 6, 512k chunk, algorithm 2 [4/3] [uUU_] bitmap: 6/15 pages [24KB], 65536KB chunk md1 : active raid6 sdb1[1] sdc1[2] sda1[0] 4191232 blocks super 1.1 level 6, 512k chunk, algorithm 2 [4/3] [uUU_] Nesse caso existe um conjunto para cada RAID de 4 HD, conforme mostra no MD0. md0 conjunto é o numero 2 seguindo dos seguintes HDS sdc2[2] sdb2[1] sda2[0] sdd2[5] Para cada conjunto fazer a sincronia. mdadm /dev/md0 -a /dev/sda1 mdadm /dev/md1 -a /dev/sda2 mdadm /dev/md2 -a /dev/sda3 Nesse exemplo irá sinconizar o HD SDA e suas partiçoes junto ao RAID MD0, caso fosse um HD novo o SDA para ser sincronizado.
  12. O primeiro passo é identificar o HD: # fdisk -l /dev/hda Disk /dev/hda: 160.0 GB, 160041885696 bytes 255 heads, 63 sectors/track, 19457 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 19457 156183930 8e Linux LVM # mount /dev/hda2 /tmp/mnt mount: /dev/hda2 already mounted or /tmp/mnt busy First, let’s determine the volume group containing the physical volume /dev/hda2. Verifique que o comando acima retornou erro informando para determinar primeiro o grupo físico do volume. Para isso precisamos identificar o grupo com o comando: # pvs PV VG Fmt Attr PSize PFree /dev/hda2 VolGroup01 lvm2 a- 148.94G 32.00M /dev/hdb2 VolGroup00 lvm2 a- 114.94G 96.00M Next, let’s list the logical volumes in VolGroup01. Foram identificados dois volumes, VolGroup00 e o VolGroup01. Bom, agora com o comando abaixo vamos identificar como que esses grupos foram montados "fisicamente" pelo sistema. # lvdisplay /dev/VolGroup00 — Logical volume — LV Name /dev/VolGroup01/LogVol00 VG Name VolGroup01 LV UUID zOQogm-G8I7-a4WC-T7KI-AhWe-Ex3Y-JVzFcR LV Write Access read/write LV Status available # open 0 LV Size 146.97 GB Current LE 4703 Segments 1 Allocation inherit Read ahead sectors 0 Block device 253:2 # lvdisplay /dev/VolGroup01 — Logical volume — LV Name /dev/VolGroup01/LogVol01 VG Name VolGroup01 LV UUID araUBI-4eer-uh5L-Dvnr-3bI6-4gYg-APgYy2 LV Write Access read/write LV Status available # open 0 LV Size 1.94 GB Current LE 62 Segments 1 Allocation inherit Read ahead sectors 0 Block device 253:3 The logical volume I would like to “mount” (in purely the computing-related sense) is /dev/VolGroup01/LogVol00. The other logical volume is a swap partition. Agora basta escolher qual deles montar e executar o comando abaixo: # mount /dev/VolGroup01/LogVol00 /tmp/mnt Bom, era isso. Abraços...
  13. Precisa acesso ROOT. Servidor Linux com cpanel instalado. Execute na seguinte ordem. /scripts/updatenow /scripts/mailperm /scripts/fixrelayd /etc/rc.d/init.d/antirelayd restart service exim restart /etc/init.d/chkservd restart
  14. (D) DoS-Deflate script basically monitors and tracks the IP addresses are sending and establishing large amount of TCP network connections such as mass emailing, DoS pings, HTTP requests) by using “netstat” command, which is the symptom of a denial of service attack. Script basicamente acompanha e monitora os endereços IP estão enviando e cria grande quantidade de ligações de rede TCP, como massa emailing, DoS pings, solicitações HTTP), utilizando "netstat" comando, que é o sintoma de um ataque de negação de serviço. When it detects number of connections from a single node that exceeds certain preset limit, the script will automatically uses APF or IPTABLES to ban and block the IPs. Quando se detecta número de conexões de um único nó que ultrapassa certos limites predefinidos, o script será automaticamente usa APF ou IPTABLES para proibir e impedir os IPs. Depending on the configuration, the banned IP addresses would be unbanned using APF or IPTABLES (only works on APF v 0.96 or better). Dependendo da configuração, o proibiu de endereços IP seria unbanned usando APF ou IPTABLES (só funciona em APF v 0,96 ou melhor). Installation and setup of (D)DOS-Deflate on the server is extremely easy. Instalação e configuração do (D) DOS-Deflate no servidor é extremamente fácil. Simply login as root by open SSH secure shell access to the server, and run the the following commands one by one: Simplesmente faça o login como root por SSH aberto seguras shell acesso ao servidor, e execute os seguintes comandos a um por um: w get http://www.inetbase.com/scripts/ddos/install.sh W get http://www.inetbase.com/scripts/ddos/install.sh chmod 0700 install.sh Chmod 0700 install.sh ./install.sh . / Install.sh To uninstall the (D)DOS-Deflate, run the following commands one by one instead: Para desinstalar o (D) DOS-Deflate, execute os seguintes comandos, um por um lugar: w get http://www.inetbase.com/scripts/ddos/uninstall.ddos W get http://www.inetbase.com/scripts/ddos/uninstall.ddos chmod 0700 uninstall.ddos Chmod 0700 uninstall.ddos ./uninstall.ddos . / Uninstall.ddos The configuration file for (D)DOS-Deflate is ddos.conf , and by default it will have the following values: O arquivo de configuração do DOS (D)-Deflate é ddos.conf e, por omissão, terá os seguintes valores: FREQ=1 FREQ = 1 NO_OF_CONNECTIONS=50 NO_OF_CONNECTIONS = 50 APF_BAN=1 APF_BAN = 1 KILL=1 KILL = 1 EMAIL_TO=”root” EMAIL_TO = "root" BAN_PERIOD=600 BAN_PERIOD = 600 Users can change any of these settings to suit the different need or usage pattern of different servers. Os usuários podem alterar qualquer uma dessas configurações para atender às diferentes necessidade ou uso padrão de diferentes servidores. It’s also possible to whitelist and permanently unblock (never ban) IP addresses by listing them in /usr/local/ddos/ignore.ip.list file. É também possível whitelist e permanentemente desbloquear (nunca proibição) endereços IP por enunciá-los em / usr / local / ddos / ignore.ip.list arquivo. If you plan to execute and run the script interactively, users can set KILL=0 so that any bad IPs detected are not banned. Se você pretende executar o script e execute interativamente, os usuários podem definir KILL = 0 para que qualquer mau IPs detectados não são proibidos. **FONTE: http://www.inetbase.com
  15. Primeiramente iremos criar nosso backup pode ser feito via cpanel em backup full ou via shell. Em nosso caso iremos faze-lo via shell. Primeiro passo. Entre no diretório /home como root. Execute o seguinte comando: /scripts/pkgacct pasta #pasta do conta Para enviar o backup de servidor para servidor execute o seguinte comando: scp -Cp cpmove-<USERNAME>.tar.gz root@you ip address:/home Se preferir abaixar o arquivo full e enviar novamente para o novo servidor, pode fazer isso via FTP, recomendo para users inesperientes. Após ter colocado o backup full no novo servidor ou no mesmo, iremos restaurar a conta via shell sendo que não precisa ser criada a conta no whm para depois restaurar, esse processo é todo feito via shell. Bem vamos restaurar nosso backup full com o seguinte comando. Dentro da pasta /home aonde deve estar o backup full digite: /scripts/restorepkg username #username é o nome que esta no backup. Espere finalizar o processo e sua conta estará restaurada, inclusive com e-mail, subdominios, senhas, etc...
×
×
  • Criar Novo...

Informação Importante

Concorda com os nossos termos?