O que é?
A Deep Web é uma área da internet onde sua principal característica é o seu anonimato. Como nessa região da internet não há filtros como na internet convencional (Google), acaba sendo uma porta de entrada para pessoas má intencionadas com o intuito de propagar conteúdos ilegais. Para entendermos melhor como funciona essa divisão entre a internet que costumamos usar (Surface Web) e a Deep Web, podemos comparar com um iceberg: onde a ponta seria a Surface Web, que seriam os sites ou conteúdo que acessamos no dia a dia; e o resto (a parte submersa) seria a Deep Web. De acordo com o jornal britânico The Guardian, conseguimos acessar apenas 0,03 % da internet pelos mecanismos de buscas como o Google, e o restante está presente na Deep Web.
Objetivos
Existem várias teorias sobre o surgimento da Deep Web, mas a teoria mais aceita é a que ela começou a crescer com ajuda do exército norte americano, que queriam se comunicar com outras divisões de inteligências em outros países, sem serem detectados. Em 1995, os matemáticos do Laboratório de Pesquisas Navais dos Estados Unidos (NRL) começaram a trabalhar em um projeto para esse fim, que em 1997 foi aprovado e financiada pelo Departamento de Projetos de Defesa Norte-Americana (DOD). Em 1999, estudantes da Universidade do Instituto de Tecnologia de Massachusetts (MIT) começaram a trabalhar em conjunto com os matemáticos do Laboratório Naval. Foi nesse momento que começaram a desenvolver o software Tor (The Onion Router). Tor é um programa que tem como objetivo, proteger a identidade dos usuários enquanto eles navegam pela internet e está estritamente associado a Deep Web. Foi laçando por definitivo em setembro de 2002.
Benefícios
Sempre que pensamos na Deep Web, logo relacionamos com um lugar obscuro, onde só existam conteúdos macabros como pedofilia, canibalismo, tráfego de drogas e entre outras atrocidades. Porém, há também um lado bom da Deep Web. Existem vastas bibliotecas com livros que muitas vezes não encontramos na internet padrão, além de artigos científicos, pesquisas, filmes e dentre outros.
Exemplos
1 - Conteúdos que podem ser encontrados:
- Fóruns de variedades;
- Venda de produtos variados, geralmente ilegal;
- Bibliotecas;
- Banco de dados;
- Pornografia ilegal;
- Tráfico de drogas e armas;
- ...
2 - Esses conteúdos podem ser classificados em categorias:
- Conteúdo dinâmico: Páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
- Conteúdo isolado: São páginas que não possuem ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers ¹.
- Web privada: São sites que exigem um registro e um login.
- Web contextual: São páginas que o conteúdo varia de acordo com o contexto de acesso, por exemplo, o IP do cliente ou a sequência de navegação anterior. A maioria dessas páginas estão escondidas e não há possibilidade de acesso, propositadamente.
- Conteúdo de acesso limitado: Sites que limitam o acesso ás suas páginas de modo técnico.
- Conteúdo de scripts:Páginas que só são acessíveis apenas por links gerados por JavaScript.
- Conteúdos não-HTML/texto: São conteúdos textual codificado em arquivos multimídia ou formatos de arquivos específicos que não são manipulados pelos motores de busca. Por exemplo, conteúdos que utilizam o protocolo Gopher ² ou hospedado em servidores FTP ³, por exemplo, não é indexada pela maioria dos mecanismos de busca.
¹ Web crawlers são indexadores de páginas automático. É usado, principalmente, por motores de busca (por exemplo o Google, Yahoo e Bing). Ele captura informações das páginas e cadastra os links encontrados, podendo assim, encontrar outras páginas e mantendo sua base de dados atualizada.
² Protocolo Gopher é um método de comunicação desenvolvido para distribuir e procurar documentos na internet. Desse modo, permitiu que arquivos armazenados em servidores fossem acessados remotamente a partir de outros lugares.
³ File Transfer Protocol (FTP), em português, Protocolo de Transferência de Arquivos. É o responsável por enviar arquivos para a web. Ele serve basicamente para que os usuários possam enviar ou receber documentos da internet por meio de um endereço no navegador ou um software instalado no computador.
3 - Devemos nos atentar que, esses conteúdos macabros e ilegais, não irão aparecer a não ser que você procure por eles, ou seja, se procurarmos conteúdos ilegais, certamente iremos achar. Mas, se procurarmos alguns livros ou artigos científicos, também iremos achar sem dificuldades. Por isso é importante focar muito bem no que buscamos por lá, pois um link errado que se acessar pode nos levar para outro caminho bem diferente do que buscamos.
4 - A Dark web é uma parte não indexada e restrita da Deep web. Nessa região, a privacidade dos usuários são extremamente assegurados, sendo formada por redes como Tor, 12P e Freenet, ou seja, para entrar nessa parte profunda da Deep web, é necessário baixar um desses servidores, e obrigatoriamente compartilhar algum conteúdo antes de navegar por lá, fazendo com que desse modo diminua os casos de denúncias. Devido a isso, criminosos se aproveitam dessa privacidade para espalhar conteúdos ilegais. Deve ficar claro que a Deep web não é a mesma coisa que a Dark web. Como foi citado acima, cerca de 99,97% dos conteúdos da internet estão na Deep web, são conteúdos que não são indexados pelos grandes motores de busca, portanto, há um conteúdo enorme que podemos encontrar lá, e uma parte desse conteúdo - que é a parte onde se encontra conteúdos ilegais - é denominado de Dark web. Contudo, a Dark web está contida na Deep web, mas não significa que toda a Deep web seja constituída apenas dos conteúdos da Dark web.
Soluções existentes
O principal software que nos leva a ter acesso a Deep web é o TOR. Como dito antes, o Tor surgiu graças ao Laboratório de Pesquisa Nava dos EUA, onde seu objetivo era proteger as comunicações do governo. Na sua segunda geração foi liberada para o uso não-governamental. Hoje o Tor é utilizado para uma ampla variedade de propósitos tanto militares, jornalísticos entre outros. Quando acessamos um site qualquer, o servidor desse site identifica o endereço de IP de quem o acessou, mas no Tor isso não ocorre porque antes que a requisição chegue ao servidor, ele dá início a um espécie de ponte criptografada. Essa ponte criptografada faz um caminho entre vários computadores anônimos até que ele chegue ao site, o único IP que identifica é do último computador, mais o anterior, o anterior do anterior e assim sucessivamente, sendo assim, impossível de ser identificado pois passou por muitos computadores até chegar ao destinatário, por isso é chamado de ponte criptografada.
As URL dos sites pertencentes da Deep web são bem diferentes dos sites da Surface web, que são padronizadas (World Wide Web) como o Google (www.google.com.br) ou o Facebook (www.facebook.com) . Na Deep web a URL possui um código criptografado sendo que as de alguns sites mudam constantemente com o intuito de não serem encontrados, e são finalizados com .onion, por exemplo o buscador na Deep web DuckDuckGo Search Engine (3g2upl4pq6kufc4m.onion). Um outro exemplo é uma das principais páginas da Deep web, o Hidden Wiki. Possui uma aparência semelhante ao da Wikipedia a enciclopédia livre. Asim como o Wikipédia, o Hidden Wiki tem um menu principal que é o ponto ponto de partida para aqueles que iniciam a navegar na Deep web.
Referências
http://ftp.unipar.br/~seinpar/2013/artigos/Carlos%20Henrique%20Aguiar%20dos%20Santos.pdf
https://www.theguardian.com/technology/2009/nov/26/dark-side-internet-freenet
https://www.tecmundo.com.br/tecmundo-explica/74998-tecmundo-explica-tal-deep-web.htm