Esse texto não vai ensinar ou incentivar a acessar a deep web, é um texto informativo
Por definição DEEP WEB (Undernet,Invisible Web,Hidden web ou Deepnet) é qualquer website que não é indexado em um mecanismo de busca padrão, como o Google ou Yahoo por exemplo, a deep web ja representa aproximadamente 70%/80% de toda a internet Em 2008, a web chamada “Deep Web”, não referenciada pelos motores de busca representa 70 a 75% do total, ou seja, cerca de um trilhão de páginas não indexadas.
Não são indexadas por DIVERSOS motivos, não só porque tem conteúdo que é julgado inapropriado, vou "resumir" o porque
As empresas provedoras de mecanismos de busca, se utilizam de um progama chamado de Web crawler ou Web scutter
O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML. Os crawlers também podem ser usados para obter tipos específicos de informação das páginas da Web, como minerar endereços de email (mais comumente para spam).
Apos a coleta dos URLS feita pelo web crawler, o pós-processamento (muitas vezes automático) serve como um FILTRO para descartar paginas que não seguem medidas pre-estabelecidas pelos provedores, estas são:
Paginas em HTML e paginas com terminação .html, .htm, .asp, .aspx, .php, .jsp, .jspx serão inclusas.
Qualquer outro MIME sera descartado automaticamente, descartam também fontes que contenham nelas "?" para evitar armadilhas chamadas de "Spider Traps" designadas especificamente para web crawlers, não vou me aprofundar muito nesse assunto, ate porque ele é beeem complexo...
Este processo de seleção deixa para tras VARIAS paginas sem serem indexadas, e é dai que surge a famosa DEEP WEB
Estas paginas ficam sem ser indexadas pelos provedores de busca, automaticamente podem ser consideradas parte da deep web, não necessariamente tem conteúdo forte, apenas não foram aceitas pelo web crawler daquele provedor de busca em especifico.
A camada mainstream ^^
The Onion Router, também conhecido pela sigla Tor, é uma rede de computadores distribuída com o intuito de prover meios de comunicação anônima na Internet. A maioria das distribuições GNU/Linux disponibilizam pacotes do Tor, embora haja versões para diferentes sistemas operacionais, tais como Windows e Mac OS. A rede Tor é uma rede de túneis http (com tls) sobrejacente à Internet, onde os roteadores da rede são computadores de usuários comuns rodando um programa e com acesso web (apenas). O objetivo principal do projeto é garantir o anonimato do usuário que está acessando a web.
Sim, se você já alguma vez acessou a deep web, provavelmente acessou endereços com terminação .onion, este domínio é utilizado para sites ou serviços que se encaixam na rede The Onion Router, conhecida como T.O.R.
Eu chamo a The Onion Router de um conjunto de camadas(explicarei melhor sobre elas a seguir) mainstream, mainstream porque qualquer usuário curioso o bastante pode acessa-la em seu computador pessoal e de forma parcialmente anonima.
Mas é considerada deep web realmente domínios que podem ser classificados apos a camada conhecida como "Marianas Web" (80% da deep web)... (COISA PRA CARALHO)
O TOR não foi criado com o intuito de abrigar websites com conteúdo ilegal, mas acabou se tornando um ambiente PERFEITO para proliferação do mesmo, ja que ele garante em teoria, anonimato completo, perfeito para comercialização de artigos ilegais como armas e drogas,ideal também para o compartilhamento de videos de pedofilia por exemplo, que nunca sobreviveriam na surface (Camada indexada pelos mecanismos de busca)
So porque considero uma camada mainstream, não significa que seja segura, muito pelo contrario, o usuário que geralmente acessa ela acessa utilizando o TOR, que não garante um anonimato completo. Essa camada esta repleta de virus, e de sites com conteúdo extremamente forte,sua minoria tem um conteúdo "inofensivo" ja que se ela esta registrada .onion, é porque o criador da mesma prefere ter anonimato, e se ele prefere manter anonimato, é porque tem algo naquela pagina que não é julgado LEGAL para a maioria das pessoas.
Camadas são grupos imaginários de endereços na deep web, são agrupados seguindo o seu grau de dificuldade de acesso.
0- Surface-
A superfície, a ponta do iceberg, sites que são indexados por mecanismos de busca e acessíveis por um navegador normal. Youtube, Facebook, Terra Maldita, Orkut (ta quase caindo pra deep xD) entre outros...
1- Onion Router-
Alguns preferem dividir essa camadas em outras pequenas, mas vou agrupar todas em uma só, pra diminuir o topico...
É a "primeira camada" da deep web, já que sei acesso é "fácil", fazem parte da The Onion Router, e por isso contam com um endereço que não é reconhecido pelos navegadores normais e nem pelos web crawlers, exemplo:
kpvz7ki2v5agwt35.onion
(sim, isso é um domínio que faz parte do TOR)
estimasse que seja uma parte pequena da deep web, mas que mesmo assim reuna uma grande quantidade de conteudo. Você vai encontrar:
A informação confidenciais (algumas delas são falsas, como é óbvio);
A livros raros e que não se encontram na Surface (a maior parte de informática);
Mercado negro
Foruns de discussão sobre pedofilia, necrozoofilia, zoofilia, entre outras Parafilias bizarras e perturbadoras, logicamente conteúdo fortíssimos.
Mas existe uma boa quantidade de conteúdo BOM, a famosa Wiki leaks nasceu dessa camada, você vai encontrar outras comunidades revolucionarias por la, e ate fóruns de compartilhamento de conhecimento.
Uma parcela do conteúdo encontrado la é usado como isca para autoridades de policia como a FBI.
----------
Bem, a partir desse ponto não se tem muita informação, considerem que as informações que vou fornecer aqui podem ser apenas MITOS uma vez não cheguei a me aprofundar muito a partir daqui.
Pequena divisão que resolvi incluir aqui já que se trata de um conteúdo um pouco mais profundo, basicamente são paginas governamentais antigas e/ou conteúdo "secreto" como paginas que requerem login (sem links para cadastros, sendo assim um site onde so acessa que é fornecido o login). Mais sites de pedofilia e mercado negro...
Seria a parte mais profunda da deep web, so acessa esse nível quem realmente SABE o que esta fazendo, é considerado um mito por alguns já que existe pouca informação sobre essa camada. Estima-se que 80% da deep web esta na Marianas Web.
A marianas web não esta no TOR (The Onion Router), por isso não é uma camada de fácil acesso.
O que você vai achar la:
?
Alguns dizem que você precisa ter conhecimentos profundo de computação para acessar essa camada, muita especulação e poucos fatos.
Ai vai uma imagem que define bem (um pouco sensacionalista, admito) as camas, esta em inglês, mas é bem simples:
Bem, o tópico esta interminado, mas resolvi publicar ele mesmo assim ja que reuni uma grande quantidade de informação. Amanha dia 21 vou atualizar o topico com informaçoes sobre o BITCOIN e PRINTSCREENS da deep web.
Texto de minha autoria, se for copiar, CREDITE O FORUM E USUARIO
Por definição DEEP WEB (Undernet,Invisible Web,Hidden web ou Deepnet) é qualquer website que não é indexado em um mecanismo de busca padrão, como o Google ou Yahoo por exemplo, a deep web ja representa aproximadamente 70%/80% de toda a internet Em 2008, a web chamada “Deep Web”, não referenciada pelos motores de busca representa 70 a 75% do total, ou seja, cerca de um trilhão de páginas não indexadas.
Não são indexadas por DIVERSOS motivos, não só porque tem conteúdo que é julgado inapropriado, vou "resumir" o porque
Web Crawlers
As empresas provedoras de mecanismos de busca, se utilizam de um progama chamado de Web crawler ou Web scutter
O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML. Os crawlers também podem ser usados para obter tipos específicos de informação das páginas da Web, como minerar endereços de email (mais comumente para spam).
Apos a coleta dos URLS feita pelo web crawler, o pós-processamento (muitas vezes automático) serve como um FILTRO para descartar paginas que não seguem medidas pre-estabelecidas pelos provedores, estas são:
Paginas em HTML e paginas com terminação .html, .htm, .asp, .aspx, .php, .jsp, .jspx serão inclusas.
Qualquer outro MIME sera descartado automaticamente, descartam também fontes que contenham nelas "?" para evitar armadilhas chamadas de "Spider Traps" designadas especificamente para web crawlers, não vou me aprofundar muito nesse assunto, ate porque ele é beeem complexo...
Este processo de seleção deixa para tras VARIAS paginas sem serem indexadas, e é dai que surge a famosa DEEP WEB
Estas paginas ficam sem ser indexadas pelos provedores de busca, automaticamente podem ser consideradas parte da deep web, não necessariamente tem conteúdo forte, apenas não foram aceitas pelo web crawler daquele provedor de busca em especifico.
The Onion Router
A camada mainstream ^^
The Onion Router, também conhecido pela sigla Tor, é uma rede de computadores distribuída com o intuito de prover meios de comunicação anônima na Internet. A maioria das distribuições GNU/Linux disponibilizam pacotes do Tor, embora haja versões para diferentes sistemas operacionais, tais como Windows e Mac OS. A rede Tor é uma rede de túneis http (com tls) sobrejacente à Internet, onde os roteadores da rede são computadores de usuários comuns rodando um programa e com acesso web (apenas). O objetivo principal do projeto é garantir o anonimato do usuário que está acessando a web.
Sim, se você já alguma vez acessou a deep web, provavelmente acessou endereços com terminação .onion, este domínio é utilizado para sites ou serviços que se encaixam na rede The Onion Router, conhecida como T.O.R.
Eu chamo a The Onion Router de um conjunto de camadas(explicarei melhor sobre elas a seguir) mainstream, mainstream porque qualquer usuário curioso o bastante pode acessa-la em seu computador pessoal e de forma parcialmente anonima.
Mas é considerada deep web realmente domínios que podem ser classificados apos a camada conhecida como "Marianas Web" (80% da deep web)... (COISA PRA CARALHO)
O TOR não foi criado com o intuito de abrigar websites com conteúdo ilegal, mas acabou se tornando um ambiente PERFEITO para proliferação do mesmo, ja que ele garante em teoria, anonimato completo, perfeito para comercialização de artigos ilegais como armas e drogas,ideal também para o compartilhamento de videos de pedofilia por exemplo, que nunca sobreviveriam na surface (Camada indexada pelos mecanismos de busca)
So porque considero uma camada mainstream, não significa que seja segura, muito pelo contrario, o usuário que geralmente acessa ela acessa utilizando o TOR, que não garante um anonimato completo. Essa camada esta repleta de virus, e de sites com conteúdo extremamente forte,sua minoria tem um conteúdo "inofensivo" ja que se ela esta registrada .onion, é porque o criador da mesma prefere ter anonimato, e se ele prefere manter anonimato, é porque tem algo naquela pagina que não é julgado LEGAL para a maioria das pessoas.
As camadas
Camadas são grupos imaginários de endereços na deep web, são agrupados seguindo o seu grau de dificuldade de acesso.
0- Surface-
A superfície, a ponta do iceberg, sites que são indexados por mecanismos de busca e acessíveis por um navegador normal. Youtube, Facebook, Terra Maldita, Orkut (ta quase caindo pra deep xD) entre outros...
1- Onion Router-
Alguns preferem dividir essa camadas em outras pequenas, mas vou agrupar todas em uma só, pra diminuir o topico...
É a "primeira camada" da deep web, já que sei acesso é "fácil", fazem parte da The Onion Router, e por isso contam com um endereço que não é reconhecido pelos navegadores normais e nem pelos web crawlers, exemplo:
kpvz7ki2v5agwt35.onion
(sim, isso é um domínio que faz parte do TOR)
estimasse que seja uma parte pequena da deep web, mas que mesmo assim reuna uma grande quantidade de conteudo. Você vai encontrar:
A informação confidenciais (algumas delas são falsas, como é óbvio);
A livros raros e que não se encontram na Surface (a maior parte de informática);
Mercado negro
Foruns de discussão sobre pedofilia, necrozoofilia, zoofilia, entre outras Parafilias bizarras e perturbadoras, logicamente conteúdo fortíssimos.
Mas existe uma boa quantidade de conteúdo BOM, a famosa Wiki leaks nasceu dessa camada, você vai encontrar outras comunidades revolucionarias por la, e ate fóruns de compartilhamento de conhecimento.
Uma parcela do conteúdo encontrado la é usado como isca para autoridades de policia como a FBI.
----------
Bem, a partir desse ponto não se tem muita informação, considerem que as informações que vou fornecer aqui podem ser apenas MITOS uma vez não cheguei a me aprofundar muito a partir daqui.
Charter Web
Pequena divisão que resolvi incluir aqui já que se trata de um conteúdo um pouco mais profundo, basicamente são paginas governamentais antigas e/ou conteúdo "secreto" como paginas que requerem login (sem links para cadastros, sendo assim um site onde so acessa que é fornecido o login). Mais sites de pedofilia e mercado negro...
Marianas web
Seria a parte mais profunda da deep web, so acessa esse nível quem realmente SABE o que esta fazendo, é considerado um mito por alguns já que existe pouca informação sobre essa camada. Estima-se que 80% da deep web esta na Marianas Web.
A marianas web não esta no TOR (The Onion Router), por isso não é uma camada de fácil acesso.
O que você vai achar la:
?
Alguns dizem que você precisa ter conhecimentos profundo de computação para acessar essa camada, muita especulação e poucos fatos.
Ai vai uma imagem que define bem (um pouco sensacionalista, admito) as camas, esta em inglês, mas é bem simples:
- Spoiler:
Bem, o tópico esta interminado, mas resolvi publicar ele mesmo assim ja que reuni uma grande quantidade de informação. Amanha dia 21 vou atualizar o topico com informaçoes sobre o BITCOIN e PRINTSCREENS da deep web.
Texto de minha autoria, se for copiar, CREDITE O FORUM E USUARIO
Última edição por Olenix em Sex Nov 23, 2012 2:22 pm, editado 1 vez(es)