| (4 revisões intermediárias por 2 usuários não estão sendo mostradas) | |||
| Linha 3: | Linha 3: | ||
Desde que foi criada uma maneira prática e simplificada de se alocar conteúdos em servidores que pudessem ser acessados de forma rápida e fácil por usuários no mundo inteiro, uma nova fase se iniciou e revolucionou a comunicação no mundo. Essa facilidade implementada por meio de marcações via hipertextos alavancou uma revolução chamada Internet. A partir daí, páginas e mais páginas começaram ser publicadas diariamente na grande rede e esta ação veio se multiplicando a cada dia provocando uma avalanche de endereços que armazenam informações das mais diversas. | Desde que foi criada uma maneira prática e simplificada de se alocar conteúdos em servidores que pudessem ser acessados de forma rápida e fácil por usuários no mundo inteiro, uma nova fase se iniciou e revolucionou a comunicação no mundo. Essa facilidade implementada por meio de marcações via hipertextos alavancou uma revolução chamada Internet. A partir daí, páginas e mais páginas começaram ser publicadas diariamente na grande rede e esta ação veio se multiplicando a cada dia provocando uma avalanche de endereços que armazenam informações das mais diversas. | ||
Com tantas pessoas incluindo conteúdos, desde profissionais até leigos, fatalmente teria que provocar alguns problemas, e isso de fato aconteceu. Foram várias situações indesejáveis criadas que foram gradativamente exigindo a criatividade dos especialistas para uma solução. Algumas consequências foram mais sérias, entre elas, ocorre uma falta de padronização dessas informações que originou um problema para os usuários na hora de navegar na Internet e assim descobrir as informações desejadas. Esse fenômeno foi denominado ''Information Overload''**referencia**. | Com tantas pessoas incluindo conteúdos, desde profissionais até leigos, fatalmente teria que provocar alguns problemas, e isso de fato aconteceu. Foram várias situações indesejáveis criadas que foram gradativamente exigindo a criatividade dos especialistas para uma solução. Algumas consequências foram mais sérias, entre elas, ocorre uma falta de padronização dessas informações que originou um problema para os usuários na hora de navegar na Internet e assim descobrir as informações desejadas. Esse fenômeno foi denominado ''Information Overload''(**referencia**). | ||
Outra consequência do acúmulo de dados é que a Internet atual não consegue associar informações de várias páginas exatamente por essa falta de padronização e também devido à limitação dos protocolos que suportam estas atividades. Diante deste caos, a Web Semântica vem como uma possibilidade de solução permitindo criar um contexto onde a informação possa ter significado para as máquinas, que se encarregarão de levar a informação relevante ao seu usuário. | Outra consequência do acúmulo de dados é que a Internet atual não consegue associar informações de várias páginas exatamente por essa falta de padronização e também devido à limitação dos protocolos que suportam estas atividades. Diante deste caos, a Web Semântica vem como uma possibilidade de solução permitindo criar um contexto onde a informação possa ter significado para as máquinas, que se encarregarão de levar a informação relevante ao seu usuário. | ||
A web atual é um conjunto de recursos e links. Os recursos são identificados pelos seus respectivos URIs (''Uniform Resource Identifiers'')**referencia**. A URL (''Uniform Resource Location'') é o subconjunto da URI mais frequentemente utilizado e que especifica a localidade e a forma como um recurso pode ser acessado na internet. Essa forma de descrição é bastante eficiente para o internauta, pois este tem condições de ler a descrição do link, identificar o sentido semântico intrínseco a aquele contexto e a partir daí navegar consciente do rumo a ser seguido. Já a máquina, que ainda não entende segundo o raciocínio humano, não consegue fazer uma análise do juízo transmitido por um link, pois muita pouca informações “''machine-readable''” está disponível. | A web atual é um conjunto de recursos e links. Os recursos são identificados pelos seus respectivos URIs (''Uniform Resource Identifiers'')(**referencia**). A URL (''Uniform Resource Location'') é o subconjunto da URI mais frequentemente utilizado e que especifica a localidade e a forma como um recurso pode ser acessado na internet. Essa forma de descrição é bastante eficiente para o internauta, pois este tem condições de ler a descrição do link, identificar o sentido semântico intrínseco a aquele contexto e a partir daí navegar consciente do rumo a ser seguido. Já a máquina, que ainda não entende segundo o raciocínio humano, não consegue fazer uma análise do juízo transmitido por um link, pois muita pouca informações “''machine-readable''” está disponível. | ||
O significado dos links só é evidente no contexto em torno do documento base, portanto depende essencialmente da origem que o está chamando para se avaliar o sentido da informação. Exemplificando uma situação onde dois sites publiquem uma informação sobre ranking de determinado artista, onde em um a nota é positiva e no outro a nota é negativa. Para o entendimento humano, ocorre uma séria incoerência, em se tratando da mesma pessoa, já para a máquina, o procedimento é normal já que percebe uma simples ligação. | O significado dos links só é evidente no contexto em torno do documento base, portanto depende essencialmente da origem que o está chamando para se avaliar o sentido da informação. Exemplificando uma situação onde dois sites publiquem uma informação sobre ranking de determinado artista, onde em um a nota é positiva e no outro a nota é negativa. Para o entendimento humano, ocorre uma séria incoerência, em se tratando da mesma pessoa, já para a máquina, o procedimento é normal já que percebe uma simples ligação. | ||
Na futura web, ou na web semântica, o conjunto de recursos e links também são identificados por URI's, mas podem ser "tipados", que consiste em atribuir um tipo à relação entre dois recursos. Assim, forma-se o conceito de ontologia (Um recurso, uma propriedade e um valor)**referencia**. Neste contexto, uma relação entre dois recursos possui uma propriedade que permite atribuir significado a ligação. No exemplo dos sites de ranking, pode-se atribuir a propriedade "nota positiva" ao link no primeiro site e a propriedade "nota negativa" ao link no segundo site. A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada. | Na futura web, ou na web semântica, o conjunto de recursos e links também são identificados por URI's, mas podem ser "tipados", que consiste em atribuir um tipo à relação entre dois recursos. Assim, forma-se o conceito de ontologia (Um recurso, uma propriedade e um valor)(**referencia**). Neste contexto, uma relação entre dois recursos possui uma propriedade que permite atribuir significado a ligação. No exemplo dos sites de ranking, pode-se atribuir a propriedade "nota positiva" ao link no primeiro site e a propriedade "nota negativa" ao link no segundo site. A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada. | ||
Antes do surgimento da Internet o homem enfrentava desafios para acessar o conhecimento, nesse momento contido restrito principalmente a livros, pois os mesmos nem sempre se encontravam em lugares próximos ou de fácil acesso. A internet mudou este cenário tornando a informação e o conhecimento disponíveis em qualquer equipamento conectado a rede. Entretanto, essa facilidade gerou a sobrecarga de informações que dificulta distinção entre a informação relevante e não relevante. Enfrenta-se, novamente, o problema de encontrar a informação certa, na hora certa. | Antes do surgimento da Internet o homem enfrentava desafios para acessar o conhecimento, nesse momento contido restrito principalmente a livros, pois os mesmos nem sempre se encontravam em lugares próximos ou de fácil acesso. A internet mudou este cenário tornando a informação e o conhecimento disponíveis em qualquer equipamento conectado a rede. Entretanto, essa facilidade gerou a sobrecarga de informações que dificulta distinção entre a informação relevante e não relevante. Enfrenta-se, novamente, o problema de encontrar a informação certa, na hora certa. | ||
Os usuários, inevitavelmente, recorrem aos mecanismos de busca, que avançam em iniciativas como a web semântica** | Os usuários, inevitavelmente, recorrem aos mecanismos de busca, que avançam em iniciativas como a web semântica(**referencia**), buscando tornarem-se verdadeiros oráculos do meio digital. Mas para estabelecer a relação semântica entre as diversas fontes de informação, é necessário um esforço descentralizado, que pode demorar anos para se concretizar. Mas como toda novidade gera oportunidade, beneficiar-se-ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas. | ||
A mudança da Internet para atender estes novos padrões é obrigatória, porém como deve ser feita a transição ainda é uma incógnita. Para isso, um grande número de pessoas mundo afora estão envolvidas na pesquisa e implementação de novas propostas ** | A mudança da Internet para atender estes novos padrões é obrigatória, porém como deve ser feita a transição ainda é uma incógnita. Para isso, um grande número de pessoas mundo afora estão envolvidas na pesquisa e implementação de novas propostas (**referencia**) que poderão atender às ansiedades atuais dos internautas. | ||
Essas linhas de pesquisa buscam acompanhar e compreender o potencial de mudança da Web, especialmente sua evolução para uma estrutura na qual o conteúdo seja o elemento fundamental e que está levando ao desenvolvimento e ampliação das capacidades dos dispositivos computacionais. Não em termos quantitativos de potência de processamento, mas em termos de qualidade de processamento, uma vez que eles passarão a “compreender” os objetos digitais a partir da sua semântica intrínseca. A interação homem-máquina ocorrerá num nível mais elevado, num nível cooperativo entre as máquinas (''machine-to-machine''). Uma nova geração de ferramentas e dispositivos computacionais está surgindo. Assim, as ontologias terão papel fundamental, provendo contextos, conceitos e padrões de metadados para classificação e descrição a priori, manipulação, armazenamento, transmissão e apresentação dos objetos digitais. | Essas linhas de pesquisa buscam acompanhar e compreender o potencial de mudança da Web, especialmente sua evolução para uma estrutura na qual o conteúdo seja o elemento fundamental e que está levando ao desenvolvimento e ampliação das capacidades dos dispositivos computacionais. Não em termos quantitativos de potência de processamento, mas em termos de qualidade de processamento, uma vez que eles passarão a “compreender” os objetos digitais a partir da sua semântica intrínseca. A interação homem-máquina ocorrerá num nível mais elevado, num nível cooperativo entre as máquinas (''machine-to-machine''). Uma nova geração de ferramentas e dispositivos computacionais está surgindo. Assim, as ontologias terão papel fundamental, provendo contextos, conceitos e padrões de metadados para classificação e descrição a priori, manipulação, armazenamento, transmissão e apresentação dos objetos digitais. | ||
No momento, a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível. Devido a este sucesso, a demanda se torna cada vez maior e consequentemente as expectativas dos seus usuários também crescem. Para atender essas expectativas, novos serviços e aplicações são criados a todo momento. Porém muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante para o crescimento da internet. | No momento, a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível(**referencia**). Devido a este sucesso, a demanda se torna cada vez maior e consequentemente as expectativas dos seus usuários também crescem. Para atender essas expectativas, novos serviços e aplicações são criados a todo momento. Porém muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante para o crescimento da internet. | ||
= O protocolo IP = | = O protocolo IP = | ||
Essa necessidade de evolução se faz obrigatória porque existe uma demanda por novas | Essa necessidade de evolução se faz obrigatória porque existe uma demanda por novas soluções que não podem ser implementadas na estrutura atual. Os já estabelecidos protocolos TCP/IP foram fundamentais para a formação internet que hoje conhecemos, porém não atendem as atuais necessidades. Baseado nisso, é fato que a arquitetura do protocolo TCP/IP está com seus dias contados. No início da Internet, a mesma só era utilizada por alguns órgãos governamentais, indústrias de alta tecnologia e universidades, este protocolo atendia de forma satisfatória seus usuários(**referência**). Com a explosão da utilização da Internet surgiram novas necessidades e passou a se considerar a substituição do IP. Um dos principais fatores foi a saturação no número de endereços IPv4 disponíveis no mundo e que forçaram a criação de novos protocolos como o IPv6, que é na realidade um paliativo, já que também não atende a algumas exigências como mobilidade, segurança, expansão ilimitada dos endereços IPS e outras demandas. | ||
O datagrama do IPv4 em si é relativamente simples, mas | O datagrama do IPv4 em si é relativamente simples, mas associado aos componentes de controle agregados ao longo do caminho, ele se torna extenso e muitas vezes contem informações redundantes. Isso torna as iterações ineficientes e complexas. Tal complexidade leva a consequências para as entidades, como falhas, instabilidade e incoerência nas informações. | ||
Os protocolos e o modelo TCP/IP não diferenciam com clareza os conceitos de serviço, interface e protocolo. A boa prática da engenharia de software exige uma diferenciação entre especificação e implementação, consequentemente o modelo TCP/IP não representa a melhor referência para a criação de novas redes com base em novas tecnologias. O modelo TCP/IP não é nem um pouco abrangente e não consegue descrever outras pilhas de protocolos que não a pilha TCP/IP, sendo praticamente impossível por exemplo, descrever a Bluetooth usando este modelo. A camada host/rede não é realmente uma camada no sentido em que o termo é usado no contexto dos protocolos hierarquizados. Trata-se, na verdade, de uma interface (entre as camadas de rede e de enlace de dados). A distinção entre uma interface e uma camada é crucial, mas não é feita no modelo TCP/IP. | Os protocolos e o modelo TCP/IP não diferenciam com clareza os conceitos de serviço, interface e protocolo(**referência**). A boa prática da engenharia de software exige uma diferenciação entre especificação e implementação, consequentemente o modelo TCP/IP não representa a melhor referência para a criação de novas redes com base em novas tecnologias. O modelo TCP/IP não é nem um pouco abrangente e não consegue descrever outras pilhas de protocolos que não a pilha TCP/IP, sendo praticamente impossível por exemplo, descrever a Bluetooth usando este modelo. A camada host/rede não é realmente uma camada no sentido em que o termo é usado no contexto dos protocolos hierarquizados. Trata-se, na verdade, de uma interface (entre as camadas de rede e de enlace de dados). A distinção entre uma interface e uma camada é crucial, mas não é feita no modelo TCP/IP. | ||
O modelo TCP/IP não faz distinção entre as camadas física e de enlace de dados. Elas são completamente diferentes. A camada física está relacionada às características de transmissão do fio de cobre, dos cabos de fibra óptica e da comunicação sem fio. A tarefa da camada de enlace de dados é delimitar o início e o final dos quadros e enviá-los de um lado a outro com o grau de confiabilidade desejado. Um modelo mais adequado deve incluir as duas camadas como elementos distintos. O modelo TCP/IP não faz isso. Porém, apesar de ser praticamente inexistente o modelo TCP/IP, seus protocolos se tornaram imensamente populares e usados em larga escala. | O modelo TCP/IP não faz distinção entre as camadas física e de enlace de dados(**referência**). Elas são completamente diferentes. A camada física está relacionada às características de transmissão do fio de cobre, dos cabos de fibra óptica e da comunicação sem fio. A tarefa da camada de enlace de dados é delimitar o início e o final dos quadros e enviá-los de um lado a outro com o grau de confiabilidade desejado. Um modelo mais adequado deve incluir as duas camadas como elementos distintos. O modelo TCP/IP não faz isso. Porém, apesar de ser praticamente inexistente o modelo TCP/IP, seus protocolos se tornaram imensamente populares e usados em larga escala. | ||
Outro problema do protocolo TCP/IP é a falta de segurança deste. Uma das principais deficiências no quesito de segurança deste protocolo é a incapacidade deste de autenticar uma máquina na rede. Em outras palavras, com base no endereço IP de origem de um pacote recebido, é impossível determinar com certeza a identidade da máquina | Outro problema do protocolo TCP/IP é a falta de segurança deste(**referência**). Uma das principais deficiências no quesito de segurança deste protocolo é a incapacidade deste de autenticar uma máquina na rede. Em outras palavras, com base no endereço IP de origem de um pacote recebido, é impossível determinar com certeza a identidade da máquina de origem. Há também poucas garantias de que o conteúdo de um pacote recebido não tenha sido alterado e menor ainda que a privacidade dos dados nele contidos tenha sido preservada. Ou seja, visto que o IPv4 não foi projetado para ser seguro, qualquer maquina conectada a uma rede TCP/IP corre o risco de receber informações incorretas transmitidas pelo mesmo. | ||
Quando | Outra deficiência no protocolo TCP/IP está relacionada à redes sem fio(**referência**). Quando projetado, o protocolo TCP/IP não previa o suporte às redes ''wireless'', por isso não apresenta qualquer tipo de teste de congestionamento, apenas de chegada de pacotes. Por esse motivo, muitas vezes o pacote é enviado e tarifado pelo provedor, mas devido a um congestionamento de rede, ou pelo fato deste usuário sair de uma região atendida por um determinado ponto de acesso para outro, o pacote tem que voltar ao provedor para ser novamente enviado. Como o TCP/IP não compreende tais situações, ele admite que o pacote foi perdido e envia outro, o qual será novamente tarifado ao ser enviado para o usuário. | ||
Ao falar nas limitações da internet atual, a maior preocupação é em relação ao número de endereços IPs(**referência**). Há algum tempo nem se imaginava a possibilidade de que um telefone celular fosse ter um endereço IP, ou o televisor, ou um carro, ou até mesmo uma geladeira. Cada um desses dispositivos possui um endereço IP(**referência**). Imagine a quantidade de endereços que será necessária com a popularização desses tipos de dispositivos. | |||
Mas as limitações da internet atual não se encontram apenas na quantidade de endereços. Novas aplicações surgiram desde que o protocolo IPv4 foi criado. A Internet passou por uma profunda mudança, na época não se falavam em vídeo 3D ou FULL-HD (**referência**) sendo transmitido em tempo real para milhares de usuários, por exemplo. São milhares de exabytes sendo transportado por um protocolo que foi projetado para megabits por segundo. Novas demandas de muita informação e muita velocidade continuam surgindo. | |||
Limitações no gerenciamento de tanta informação, manuseio, roteamento de pacotes que não nos dá um retorno da “saúde” da internet, por exemplo, se um determinado pacote tem sua entrega atrasada, não é possível saber a causa do atraso, dificultando o diagnostico de problemas. | Limitações no gerenciamento de tanta informação, manuseio, roteamento de pacotes que não nos dá um retorno da “saúde” da internet, por exemplo, se um determinado pacote tem sua entrega atrasada, não é possível saber a causa do atraso, dificultando o diagnostico de problemas. | ||
Frente a tantas limitações no protocolo IPv4, a proposta adotada como substituta foi a SIPP (''Simple Internet Protocol Plus'') ao qual foi atribuído o nome IPv6. Este protocolo seria uma evolução que além de permitir um número muito maior de números IPs, traz uma série de modificações no datagrama, a fim e solucionar alguns problemas referentes ao IPv4. | |||
Apesar de apresentar vantagens claras | Apesar de apresentar vantagens claras do IPv6, este não poder ser considerado como uma solução pois ainda é um protocolo limitado e pouco flexível. A verdadeira solução para os protocolos atuais está na possibilidade de darmos a capacidade de inferência para a máquina, ou seja, inserir semântica de modo a estabelecer conexão entre as informações, tornando os protocolos mais flexíveis a ponto de podermos encurtar as camadas de rede, transporte em enlace, etc.. | ||
= A amplitude da Internet = | = A amplitude da Internet = | ||
Desde que foi colocada a disposição da população, a Internet passou por um crescimento nunca antes visto. Atualmente, são mais de 2 bilhões de internautas conectados a Internet, se comunicando em tempo real com pessoas a milhares de quilômetros, trocando emails, navegando por páginas das mais diversas, fazendo download de músicas, vídeos e arquivos em geral entre outras tantas aplicações. Deste total de fervorosos navegadores, cerca de 10% se encontra na América Latina(**referencia**). O Brasil especificamente tem tomado o maior percentual no continente. No ano 2010, em relação ao serviço de e-mail, totalizaram 107 trilhões de mensagens no ano, numa média de 294 bilhões por dia. Ainda no ano de 2010, os sites publicados chegaram a 255 milhões, num crescimento de 8% em relação ao ano anterior(**referencia**). Supondo que esse aumento continue, chegaremos a 340 milhões em 5 anos. Levando em conta que a Internet supera seus próprios números a cada ano, provavelmente teremos muito mais que isso. | |||
O ‘’hit’’ do momento, as redes sociais, evoluíram de tal forma que hoje a maior rede social, o Facebook, possui 750 milhões de usuários. No Twitter, são 200 milhões de usuários, Lady Gaga possui, sozinha, 7,7 possui milhões de seguidores – sendo o perfil mais seguido. O Youtube, líder no compartilhamento de vídeos, possui 150 milhões de vídeos e recebe um novo vídeo a cada minuto. São 35 horas de novo conteúdo e 2 bilhões de visualizações diárias. No Flickr, serviço de compartilhamento de fotos, existem mais de 5 bilhões de fotos e esse número cresce em 130 milhões ao mês ou 3 mil por minuto (**referencia**). | |||
Outro indicativo do poder desta rede é o número de domínios existentes, | Outro indicativo do poder desta rede é o número de domínios existentes, são mais de 9 milhões de extensões ‘’.COM’'(**referencia**). Com tantos números impressionantes não é novidade as dificuldades por que tem passado a atual estrutura da internet e as dificuldades que estão por vir para admitir tráfegos cada vez maiores. | ||
Soluções nessa linha de raciocínio já estão sendo desenvolvidas. Existem propostas de mudança de arquitetura | Soluções nessa linha de raciocínio já estão sendo desenvolvidas. Existem propostas de mudança de arquitetura, propostas para atribuir mais inteligência na rede e propostas que incluem ambas. Com relação à primeira, o AutoI(**referencia**), uma dentre várias soluções em fase de desenvolvimento, se encaixa de forma a tentar resolver os problemas que já detectados e outros que ainda devem surgir. Com relação à segunda, podemos citar a OWL ( ''Ontology Web Language'') (**referencia**) que apresenta ferramentas como Protegé, Oracle 11g, OntoStudio entre outros(**referencia**); e ambientes nos quais testes deste tipo já estão sendo feitos e implementados sobre estruturas inovadoras, uma delas, o próprio AutoI. | ||
Em função do histórico da evolução da Internet, das limitações | Em função do histórico da evolução da Internet, das limitações e perspectiva de crescimento, é mandatório propor novas soluções. Este projeto visa avaliar, selecionar, instalar, homologar e testar em várias situações do mundo real, as propostas disponíveis atualmente no mundo e em particular o AutoI, que pode vir a ser escolhida como uma das melhores estruturas para resolver os desafios discutidos até aqui. | ||
Edição atual tal como às 02h22min de 26 de julho de 2011
Justificativa
Desde que foi criada uma maneira prática e simplificada de se alocar conteúdos em servidores que pudessem ser acessados de forma rápida e fácil por usuários no mundo inteiro, uma nova fase se iniciou e revolucionou a comunicação no mundo. Essa facilidade implementada por meio de marcações via hipertextos alavancou uma revolução chamada Internet. A partir daí, páginas e mais páginas começaram ser publicadas diariamente na grande rede e esta ação veio se multiplicando a cada dia provocando uma avalanche de endereços que armazenam informações das mais diversas.
Com tantas pessoas incluindo conteúdos, desde profissionais até leigos, fatalmente teria que provocar alguns problemas, e isso de fato aconteceu. Foram várias situações indesejáveis criadas que foram gradativamente exigindo a criatividade dos especialistas para uma solução. Algumas consequências foram mais sérias, entre elas, ocorre uma falta de padronização dessas informações que originou um problema para os usuários na hora de navegar na Internet e assim descobrir as informações desejadas. Esse fenômeno foi denominado Information Overload(**referencia**).
Outra consequência do acúmulo de dados é que a Internet atual não consegue associar informações de várias páginas exatamente por essa falta de padronização e também devido à limitação dos protocolos que suportam estas atividades. Diante deste caos, a Web Semântica vem como uma possibilidade de solução permitindo criar um contexto onde a informação possa ter significado para as máquinas, que se encarregarão de levar a informação relevante ao seu usuário.
A web atual é um conjunto de recursos e links. Os recursos são identificados pelos seus respectivos URIs (Uniform Resource Identifiers)(**referencia**). A URL (Uniform Resource Location) é o subconjunto da URI mais frequentemente utilizado e que especifica a localidade e a forma como um recurso pode ser acessado na internet. Essa forma de descrição é bastante eficiente para o internauta, pois este tem condições de ler a descrição do link, identificar o sentido semântico intrínseco a aquele contexto e a partir daí navegar consciente do rumo a ser seguido. Já a máquina, que ainda não entende segundo o raciocínio humano, não consegue fazer uma análise do juízo transmitido por um link, pois muita pouca informações “machine-readable” está disponível. O significado dos links só é evidente no contexto em torno do documento base, portanto depende essencialmente da origem que o está chamando para se avaliar o sentido da informação. Exemplificando uma situação onde dois sites publiquem uma informação sobre ranking de determinado artista, onde em um a nota é positiva e no outro a nota é negativa. Para o entendimento humano, ocorre uma séria incoerência, em se tratando da mesma pessoa, já para a máquina, o procedimento é normal já que percebe uma simples ligação. Na futura web, ou na web semântica, o conjunto de recursos e links também são identificados por URI's, mas podem ser "tipados", que consiste em atribuir um tipo à relação entre dois recursos. Assim, forma-se o conceito de ontologia (Um recurso, uma propriedade e um valor)(**referencia**). Neste contexto, uma relação entre dois recursos possui uma propriedade que permite atribuir significado a ligação. No exemplo dos sites de ranking, pode-se atribuir a propriedade "nota positiva" ao link no primeiro site e a propriedade "nota negativa" ao link no segundo site. A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada. Antes do surgimento da Internet o homem enfrentava desafios para acessar o conhecimento, nesse momento contido restrito principalmente a livros, pois os mesmos nem sempre se encontravam em lugares próximos ou de fácil acesso. A internet mudou este cenário tornando a informação e o conhecimento disponíveis em qualquer equipamento conectado a rede. Entretanto, essa facilidade gerou a sobrecarga de informações que dificulta distinção entre a informação relevante e não relevante. Enfrenta-se, novamente, o problema de encontrar a informação certa, na hora certa.
Os usuários, inevitavelmente, recorrem aos mecanismos de busca, que avançam em iniciativas como a web semântica(**referencia**), buscando tornarem-se verdadeiros oráculos do meio digital. Mas para estabelecer a relação semântica entre as diversas fontes de informação, é necessário um esforço descentralizado, que pode demorar anos para se concretizar. Mas como toda novidade gera oportunidade, beneficiar-se-ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas.
A mudança da Internet para atender estes novos padrões é obrigatória, porém como deve ser feita a transição ainda é uma incógnita. Para isso, um grande número de pessoas mundo afora estão envolvidas na pesquisa e implementação de novas propostas (**referencia**) que poderão atender às ansiedades atuais dos internautas.
Essas linhas de pesquisa buscam acompanhar e compreender o potencial de mudança da Web, especialmente sua evolução para uma estrutura na qual o conteúdo seja o elemento fundamental e que está levando ao desenvolvimento e ampliação das capacidades dos dispositivos computacionais. Não em termos quantitativos de potência de processamento, mas em termos de qualidade de processamento, uma vez que eles passarão a “compreender” os objetos digitais a partir da sua semântica intrínseca. A interação homem-máquina ocorrerá num nível mais elevado, num nível cooperativo entre as máquinas (machine-to-machine). Uma nova geração de ferramentas e dispositivos computacionais está surgindo. Assim, as ontologias terão papel fundamental, provendo contextos, conceitos e padrões de metadados para classificação e descrição a priori, manipulação, armazenamento, transmissão e apresentação dos objetos digitais.
No momento, a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível(**referencia**). Devido a este sucesso, a demanda se torna cada vez maior e consequentemente as expectativas dos seus usuários também crescem. Para atender essas expectativas, novos serviços e aplicações são criados a todo momento. Porém muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante para o crescimento da internet.
O protocolo IP
Essa necessidade de evolução se faz obrigatória porque existe uma demanda por novas soluções que não podem ser implementadas na estrutura atual. Os já estabelecidos protocolos TCP/IP foram fundamentais para a formação internet que hoje conhecemos, porém não atendem as atuais necessidades. Baseado nisso, é fato que a arquitetura do protocolo TCP/IP está com seus dias contados. No início da Internet, a mesma só era utilizada por alguns órgãos governamentais, indústrias de alta tecnologia e universidades, este protocolo atendia de forma satisfatória seus usuários(**referência**). Com a explosão da utilização da Internet surgiram novas necessidades e passou a se considerar a substituição do IP. Um dos principais fatores foi a saturação no número de endereços IPv4 disponíveis no mundo e que forçaram a criação de novos protocolos como o IPv6, que é na realidade um paliativo, já que também não atende a algumas exigências como mobilidade, segurança, expansão ilimitada dos endereços IPS e outras demandas.
O datagrama do IPv4 em si é relativamente simples, mas associado aos componentes de controle agregados ao longo do caminho, ele se torna extenso e muitas vezes contem informações redundantes. Isso torna as iterações ineficientes e complexas. Tal complexidade leva a consequências para as entidades, como falhas, instabilidade e incoerência nas informações.
Os protocolos e o modelo TCP/IP não diferenciam com clareza os conceitos de serviço, interface e protocolo(**referência**). A boa prática da engenharia de software exige uma diferenciação entre especificação e implementação, consequentemente o modelo TCP/IP não representa a melhor referência para a criação de novas redes com base em novas tecnologias. O modelo TCP/IP não é nem um pouco abrangente e não consegue descrever outras pilhas de protocolos que não a pilha TCP/IP, sendo praticamente impossível por exemplo, descrever a Bluetooth usando este modelo. A camada host/rede não é realmente uma camada no sentido em que o termo é usado no contexto dos protocolos hierarquizados. Trata-se, na verdade, de uma interface (entre as camadas de rede e de enlace de dados). A distinção entre uma interface e uma camada é crucial, mas não é feita no modelo TCP/IP.
O modelo TCP/IP não faz distinção entre as camadas física e de enlace de dados(**referência**). Elas são completamente diferentes. A camada física está relacionada às características de transmissão do fio de cobre, dos cabos de fibra óptica e da comunicação sem fio. A tarefa da camada de enlace de dados é delimitar o início e o final dos quadros e enviá-los de um lado a outro com o grau de confiabilidade desejado. Um modelo mais adequado deve incluir as duas camadas como elementos distintos. O modelo TCP/IP não faz isso. Porém, apesar de ser praticamente inexistente o modelo TCP/IP, seus protocolos se tornaram imensamente populares e usados em larga escala.
Outro problema do protocolo TCP/IP é a falta de segurança deste(**referência**). Uma das principais deficiências no quesito de segurança deste protocolo é a incapacidade deste de autenticar uma máquina na rede. Em outras palavras, com base no endereço IP de origem de um pacote recebido, é impossível determinar com certeza a identidade da máquina de origem. Há também poucas garantias de que o conteúdo de um pacote recebido não tenha sido alterado e menor ainda que a privacidade dos dados nele contidos tenha sido preservada. Ou seja, visto que o IPv4 não foi projetado para ser seguro, qualquer maquina conectada a uma rede TCP/IP corre o risco de receber informações incorretas transmitidas pelo mesmo.
Outra deficiência no protocolo TCP/IP está relacionada à redes sem fio(**referência**). Quando projetado, o protocolo TCP/IP não previa o suporte às redes wireless, por isso não apresenta qualquer tipo de teste de congestionamento, apenas de chegada de pacotes. Por esse motivo, muitas vezes o pacote é enviado e tarifado pelo provedor, mas devido a um congestionamento de rede, ou pelo fato deste usuário sair de uma região atendida por um determinado ponto de acesso para outro, o pacote tem que voltar ao provedor para ser novamente enviado. Como o TCP/IP não compreende tais situações, ele admite que o pacote foi perdido e envia outro, o qual será novamente tarifado ao ser enviado para o usuário.
Ao falar nas limitações da internet atual, a maior preocupação é em relação ao número de endereços IPs(**referência**). Há algum tempo nem se imaginava a possibilidade de que um telefone celular fosse ter um endereço IP, ou o televisor, ou um carro, ou até mesmo uma geladeira. Cada um desses dispositivos possui um endereço IP(**referência**). Imagine a quantidade de endereços que será necessária com a popularização desses tipos de dispositivos.
Mas as limitações da internet atual não se encontram apenas na quantidade de endereços. Novas aplicações surgiram desde que o protocolo IPv4 foi criado. A Internet passou por uma profunda mudança, na época não se falavam em vídeo 3D ou FULL-HD (**referência**) sendo transmitido em tempo real para milhares de usuários, por exemplo. São milhares de exabytes sendo transportado por um protocolo que foi projetado para megabits por segundo. Novas demandas de muita informação e muita velocidade continuam surgindo.
Limitações no gerenciamento de tanta informação, manuseio, roteamento de pacotes que não nos dá um retorno da “saúde” da internet, por exemplo, se um determinado pacote tem sua entrega atrasada, não é possível saber a causa do atraso, dificultando o diagnostico de problemas. Frente a tantas limitações no protocolo IPv4, a proposta adotada como substituta foi a SIPP (Simple Internet Protocol Plus) ao qual foi atribuído o nome IPv6. Este protocolo seria uma evolução que além de permitir um número muito maior de números IPs, traz uma série de modificações no datagrama, a fim e solucionar alguns problemas referentes ao IPv4. Apesar de apresentar vantagens claras do IPv6, este não poder ser considerado como uma solução pois ainda é um protocolo limitado e pouco flexível. A verdadeira solução para os protocolos atuais está na possibilidade de darmos a capacidade de inferência para a máquina, ou seja, inserir semântica de modo a estabelecer conexão entre as informações, tornando os protocolos mais flexíveis a ponto de podermos encurtar as camadas de rede, transporte em enlace, etc..
A amplitude da Internet
Desde que foi colocada a disposição da população, a Internet passou por um crescimento nunca antes visto. Atualmente, são mais de 2 bilhões de internautas conectados a Internet, se comunicando em tempo real com pessoas a milhares de quilômetros, trocando emails, navegando por páginas das mais diversas, fazendo download de músicas, vídeos e arquivos em geral entre outras tantas aplicações. Deste total de fervorosos navegadores, cerca de 10% se encontra na América Latina(**referencia**). O Brasil especificamente tem tomado o maior percentual no continente. No ano 2010, em relação ao serviço de e-mail, totalizaram 107 trilhões de mensagens no ano, numa média de 294 bilhões por dia. Ainda no ano de 2010, os sites publicados chegaram a 255 milhões, num crescimento de 8% em relação ao ano anterior(**referencia**). Supondo que esse aumento continue, chegaremos a 340 milhões em 5 anos. Levando em conta que a Internet supera seus próprios números a cada ano, provavelmente teremos muito mais que isso.
O ‘’hit’’ do momento, as redes sociais, evoluíram de tal forma que hoje a maior rede social, o Facebook, possui 750 milhões de usuários. No Twitter, são 200 milhões de usuários, Lady Gaga possui, sozinha, 7,7 possui milhões de seguidores – sendo o perfil mais seguido. O Youtube, líder no compartilhamento de vídeos, possui 150 milhões de vídeos e recebe um novo vídeo a cada minuto. São 35 horas de novo conteúdo e 2 bilhões de visualizações diárias. No Flickr, serviço de compartilhamento de fotos, existem mais de 5 bilhões de fotos e esse número cresce em 130 milhões ao mês ou 3 mil por minuto (**referencia**).
Outro indicativo do poder desta rede é o número de domínios existentes, são mais de 9 milhões de extensões ‘’.COM’'(**referencia**). Com tantos números impressionantes não é novidade as dificuldades por que tem passado a atual estrutura da internet e as dificuldades que estão por vir para admitir tráfegos cada vez maiores.
Soluções nessa linha de raciocínio já estão sendo desenvolvidas. Existem propostas de mudança de arquitetura, propostas para atribuir mais inteligência na rede e propostas que incluem ambas. Com relação à primeira, o AutoI(**referencia**), uma dentre várias soluções em fase de desenvolvimento, se encaixa de forma a tentar resolver os problemas que já detectados e outros que ainda devem surgir. Com relação à segunda, podemos citar a OWL ( Ontology Web Language) (**referencia**) que apresenta ferramentas como Protegé, Oracle 11g, OntoStudio entre outros(**referencia**); e ambientes nos quais testes deste tipo já estão sendo feitos e implementados sobre estruturas inovadoras, uma delas, o próprio AutoI.
Em função do histórico da evolução da Internet, das limitações e perspectiva de crescimento, é mandatório propor novas soluções. Este projeto visa avaliar, selecionar, instalar, homologar e testar em várias situações do mundo real, as propostas disponíveis atualmente no mundo e em particular o AutoI, que pode vir a ser escolhida como uma das melhores estruturas para resolver os desafios discutidos até aqui.