domingo, 11 de janeiro de 2009

Curso de Redes

O que são protocolos



Protocolo é um acordo entre as partes que se comunicam, estabelecendo como se dará a comunicação. O protocolo é uma descrição formal de um conjunto de regras e convenções que governam a maneira de comunicação entre os dispositivos em uma rede. Os protocolos determinam o formato, temporização, seqüência, e controle de erros na comunicação de dados. Sem os protocolos, o computador não pode criar ou reconstruir o fluxo de bits recebido de outro computador no seu formato original. Estas regras para redes são criadas e mantidas por diferentes organizações e comitês. Incluídos nestes grupos estão:

  • Institute of Electrical and Electronic Engineers (IEEE);
  • American National Standards Institute (ANSI);
  • Telecommunications Industry Association (TIA);
  • Electronic Industries Alliance (EIA);
  • International Telecommunications Union (ITU), anteriormente conhecida como Comité Consultatif International Téléphonique et Télégraphique (CCITT)
  • FIPS – Federal Information Processing Standards
  • MILSTD – Military Standards
  • FCC – Federal Communications Comission
  • IANA — Internet Assigned Number Authority
  • IETF — Internet Engineering Task Force
  • IRTF — Internet Research Task Force
  • Internet Engineering Steering Group

Os sistemas de comunicação de dados não usam apenas um único protocolo para tratar todas as tarefas de transmissão. Esse processo requer uma pilha de protocolos cooperativos, denominados algumas vezes de família de protocolos ou pilha de protocolos. Alguns exemplos de funcionalidades dos protocolos:

  • Indisponibilidade: Causada por falha de um host ou roteador, seja por falha de hardware ou crise no sistema operacional, ou um enlace de transmissão pode falhar ou ser desconectado acidentalmente. Alguns protocolos detectam tais falhas e recuperar-se delas.
  • Congestionamento de redes: Mesmo quando todo o hardware e software operam corretamente, as redes têm capacidade finita que pode ser ultrapassada. Os protocolos precisam encontrar formas para que uma máquina em congestionamento possa suprir o excesso de tráfego.
  • Demora ou perda de pacotes: Algumas vezes, os pacotes demoram muito ou são perdidos. Os protocolos precisam aprender sobre as falhas ou adaptar-se a longas demoras.
  • Danificação de dados: Interferência elétro-magnética ou falhas de hardware pode causar erros de transmissão que danificam o conteúdo dos dados transmitidos. Os protocolos necessitam detectar e recuperar tais erros.
  • Duplicação de dados ou erros seqüenciais: Redes que oferecem rotas múltiplas podem transmitir dados fora de seqüência ou podem transmitir pacotes duplicados. Os protocolos necessitam reorganizar os pacotes e detectar/descartar pacotes duplicados.

Considerados em conjunto, esses problemas parecem enormes. É difícil entender como é possível preparar um único protocolo que poderá tratar todos eles. Aplica-se então a velha máxima de guerra: “Dividir para conquistar”, onde cada camada assume a responsabilidade de tratar uma parte do problema.




As Camadas conceituais dos protocolos



Para que os pacotes de dados trafeguem de uma origem até um destino, através de uma rede, é importante que todos os dispositivos da rede usem a mesma linguagem, ou protocolo. Podemos imaginar todos os protocolos empilhados verticalmente em camadas como na figura abaixo:



No exemplo acima a Camada 4 da origem se comunica com a Camada 4 no computador de destino. É muito importante frisar que a comunicação é realizada entre camadas pares, isto é, a camada 4 de origem se comunica com a camada 4 de destino, a camada 3 de origem se comunica com a camada 3 de destino, a camada... Nunca ocorrerá comunicação entre camadas de níveis diferentes. Isto se deve ao fato das regras e convenções usadas para uma camada serem desconhecidas para camadas diferentes. Seria algo similar como colocar um brasileiro (que só sabe falar português) pra falar com um japonês (que só sabe falar japonês).

Quando um dado é enviado da origem para o destino, o dado é tratado por todas as camadas, de cima para baixo, até chegar à camada mais baixa e ser transmitido, por isso costumamos dizer que a camada N prove serviço para a camada N+1. Quando o pacote chega ao destino os protocolos desfazem a construção do pacote que foi feito no lado da fonte. Isto é feito na ordem inversa, de baixo para cima.

Na prática, o protocolo é muito mais complexo do que o modelo mostrado. Cada camada toma decisões em relação à correção da mensagem e escolhe uma ação apropriada baseada no tipo de mensagem ou no endereço de destino.




Modelo ISO/OSI


Voltando para o lado histórico das redes. Nos meados de 1980, as empresas começaram a sentir os problemas causados pela rápida expansão. Assim como pessoas que não falam o mesmo idioma têm dificuldade na comunicação entre si, era difícil para as redes que usavam diferentes especificações e implementações trocarem informações. O mesmo problema ocorreu com as empresas que desenvolveram tecnologias de rede proprietária ou particular. As tecnologias de rede que seguiam estritamente as regras proprietárias não podiam comunicar-se com tecnologias que seguiam diferentes regras proprietárias.

Para tratar dos problemas de incompatibilidade entre as redes, a ISO realizou uma pesquisa nos modelos de redes como Digital Equipment Corporation net (DECnet), Systems Network Architecture (SNA) e TCP/IP a fim de encontrar um conjunto de regras aplicáveis a todas as redes. Com o resultado desta pesquisa, a ISO criou um modelo de rede que ajuda os fabricantes na criação de redes que são compatíveis com outras redes.

O modelo de referência da Open System Interconnection (OSI) lançado em 1984 foi o modelo descritivo de rede que foi criado pela ISSO, por isso é chamado de ISSO/OSI. Ele proporcionou aos fabricantes um conjunto de padrões que garantiam uma maior compatibilidade e interoperabilidade entre as várias tecnologias de rede produzidas pelas companhias ao redor do mundo.

O modelo ISO contém sete camadas conceituais organizadas como mostra a figura abaixo:



Abaixo um resumo básico sobre as 7 cadas do modelo ISSO/OSI:

Camada Física. Especifica a interconexão física, incluindo as características elétricas de voltagem e corrente. Dizemos que na camada física é responsável pelos fios, conectores, voltagens, taxa de dados, hubs e tranceivers.
Camada de enlace de dados. O protocolo de nível dois define o formato dos quadros e especifica como as duas máquinas reconhecem os limites do quadro e implementa um primeiro nível de detecção de erro. Dizemos que na camada de enlace é responsável pelo controle de acesso ao meio, placas de redes, bridges, switches e endereçamento MAC.
Camada de rede. Contém a funcionalidade que completa a definição da interação entre o host e a rede. Esse nível define: a unidade básica de transferência na rede; endereçamento lógico; escolha do melhor caminho; entrega por melhor esforço; transferência de dados confiável através do meio. Dessa forma a camada de rede é responsável por Endereços IPs, endereçamentos IPXs, roteamento, protocolos de roteamento e pelos roteadores.
Camada de transporte. Oferece confiabilidade ao fazer com que o host de destino se comunique com o host central. É a camada que provê comunicação fim-a-fim com controle de erro e retransmissão. Também é responsabilidade dessa camada o controle de fluxo e de congestionamento.
Camada de sessão. Permite que os usuários de diferentes máquinas estabeleçam sessões entre eles, oferecendo serviços de controle de diálogo, entre outros.
Camada de apresentação. É voltada a incluir funções de que muitos programas aplicativos precisam ao usar a rede. Torna possível a comunicação entre computadores com diferentes representações de dados pois ela define a formatação, compressão e construção das estruturas de dados.
Camada de aplicação. São os próprios programas/aplicativos que usam a rede, comumente necessários para os usuários. Exemplos incluem o correio eletrônico e o programa de transferência de arquivos e navegadores.




Modelo TCP/IP


O padrão histórico e técnico da Internet é o modelo TCP/IP. O Departamento de Defesa dos Estados Unidos (DoD) desenvolveu o modelo de referência TCP/IP porque queria uma rede que pudesse sobreviver a qualquer condição, mesmo a uma guerra nuclear. Em um mundo conectado por diferentes tipos de meios de comunicação como fios de cobre, microondas, fibras ópticas e links de satélite, o DoD queria a transmissão de pacotes a qualquer hora e em qualquer condição. Este problema de projeto extremamente difícil originou a criação do modelo TCP/IP.

Ao contrário das tecnologias de rede proprietárias mencionadas anteriormente, o TCP/IP foi projetado como um padrão aberto. Isto queria dizer que qualquer pessoa tinha a liberdade de usar o TCP/IP. Isto ajudou muito no rápido desenvolvimento do TCP/IP como padrão.

O modelo TCP/IP tem as seguintes quatro camadas:



Os projetistas do TCP/IP decidiram que os protocolos de mais alto nível deviam incluir os detalhes da camada de sessão e de apresentação do OSI. Eles simplesmente criaram uma camada de aplicação que trata de questões de representação, codificação e controle de diálogo.



Enlace de Dados

Introdução

A camada de enlace tem a função de fornecer serviços à camada rede. As principais funções dessa camada são:
  • Arbitragem;
  • Endereçamento;
  • Identificação de conteúdo ;
  • Detecção de erros.


Ethernet

Atualmente a principal tecnologia da camada de enlace é a ethernet, ela está definida no padrão IEEE 802.3.

O nome ethernet se originou da soma de duas palavras éter (ether em inglês) e rede (net). O éter foi idealizado por cientistas antigos, após a descoberta de que a luz era uma onda eletromagnética, para explicar como a luz podia viajar pelo espaço. A teoria da propagação de ondas diz que uma onda necessita de um “meio” para se propagar. Com isso os cientistas idealizaram que o éter preenchia todo o espaço e dessa forma a luz podia viajar.

Baseado nessa idéia, os criadores da ethernet queria desenvolver um protocolo de comunicação onde vários hosts poderiam se comunicar através de um meio compartilhado qualquer sem que os dados de um host interfiram com os dados de outro host. Dessa forma fez-se necessário criar um controle de acesso ao meio.

Este foi o primeiro “draft” da ethernet:




Abaixo um diagrama “melhorado” do livro do Tanembaum.





Para mais detalhes sobre a origem da ethernet há um trecho do livro do Tanembaum nesse site



O método de controle de acesso ao meio mais famoso da ethernet é o CSMA/CD (Carrier-Sense Multiple Access with Collision Detection ou Acesso Múltiplo com Sensoreamento de Portadora com Detecção de Colisão). Outro método de controle muito utilizado em tecnologias ethernet é o CSMA/CA (Collision Avoidance ou Prevenção de Colisão) que é muito utilizado em redes wireless devido ao pequeno detalhe de que em redes wireless você não tem como “ter certeza” de que alguém já está transmitindo!

Para mais informações sobre o CSMA/CA leia esse artigo muito bom




Algoritmo CSMA/CD

O CSMA/CD foi idealizado para redes que utilizam barramento. As redes de barramento possuem a característica de que se um host transmite todos os outros hosts do barramento devem somente ouvir. Dessa forma há uma competição pelo meio (barramento). O algoritmo CSMA/CD visa controlar essa competição de forma a não impactar no desempenho da rede.



O algoritmo define que o host, antes de transmitir, deve ouvir o meio para constatar que ele não está em utilização. Após verificar se há ou não alguém transmitindo ele toma a decisão de aguardar ou seguir para o próximo passo. Esse algoritmo tem dois pontos muito importantes. O sub-algoritmo de colisão e a questão de ouvir durante a transmissão.

Quando o host está transmitindo ele ouve o meio para certificar-se que “o que está no meio é o que ele enviou”. Se por acaso houver uma colisão ele irá ouvir algo diferente do que ele transmitiu, detectando assim, uma colisão. “Mas como pode haver uma colisão se todos ouvem o meio antes de transmitir?”. A transmissão se propaga pelo meio com um certo retardo assim, a transmissão de um host na porta A de uma cabo pode levar um certo tempo para chegar na ponta B. Dessa forma se dois hosts distantes tentarem transmitir ao mesmo tempo, ou quase ao mesmo tempo, pode haver colisão.

O ponto mais interessante desse algoritmo é o sub-algoritmo de colisão. Esse sub-algoritmo define se esse será um algoritmo CSMA/CD ou CSMA/CA.

Em um algoritmo CSMA/CD esse sub-algoritmo ira gerar um sinal de JAM (de 32 bits) durante um certo. Esse sinal de JAM serve para avisar a todos os hosts desse barramento que houve uma colisão e que eles devem parar de transmitir. Os causadores da colisão, origem e destino, irão esperar um tempo aleatório definido pelo algoritmo de backoff. Após o tempo aleatório eles tentaram transmitir novamente.



Endereçamento MAC


Para permitir uma entrega local de quadros na Ethernet, foi criado um sistema de endereçamento, uma maneira exclusiva de identificação de computadores e interfaces. A Ethernet usa endereços MAC que têm 48 bits de comprimento e são expressos como doze dígitos hexadecimais. Ex: 00:0F:EA:28:36:6C

Os primeiros seis dígitos hexadecimais, que são administrados pelo IEEE, identificam o fabricante ou o fornecedor. Esta parte do endereço MAC é conhecida como OUI (Organizational Unique Identifier). Os seis dígitos hexadecimais restantes representam o número de série da interface ou outro valor administrado pelo fabricante do equipamento específico.

Uma lista de todos os OUIs reservados podem ser consultados aqui




Os endereços MAC às vezes são conhecidos como burned-in addresses (BIA), porque são gravados na memória apenas de leitura (ROM) e são copiados na memória de acesso aleatório (RAM) quando a placa de rede é inicializada.



As placas de rede usam o endereço MAC para avaliar se a mensagem deve ser passada para as camadas superiores do modelo OSI. A placa de rede faz essa avaliação sem usar o tempo de processamento da CPU, proporcionando melhores tempos de comunicações na rede Ethernet.



Unicast, broadcast e multicast

O endereço MAC pode ser Unicast, Multicast e Broadcast. No caso de unicast o endereço MAC é conforme citado acima, composto por um OUI e o identificador.

O Multicast possui o bit menos significativo do byte mais significativo setado como um. Complicou?! Ok, tomamos o MAC de exemplo citado acima: 00:0F:EA:28:36:6C, ele é um endereço unicast. Vamos pegar o byte mais significativo: 00. Converte-lo para binário: 0000 0000. Qual o bit menos significativo?! O em negrito. Mas essa foi fácil ne?! Vamos pegar outro: 02:CF:1C:28:36:6C. Novamente o byte mais significativo: 02. Convertendo 0000 0010. Novamente um Unicast. “Então como seria um multicast?” Assim: 0000 0011. Convertendo para hexadecimal: 03:CF:1C:28:36:6C. “Perai, então eu vou ter que fazer isso toda vez pra descobrir se é multicast ou unicast??” Na verdade não! Pra quem ta acostumado com números binário sabe a função do bit menos significativo que é tornar um número ímpar ou par. Dessa forma, se o byte mais significativo for ímpar, ele é multicast. Se for par é unicast.

Um endereço MAC de broadcast é todo composto por 1s. Dessa forma temos o seguinte endereços: FF:FF:FF:FF:FF:FF.



Adicionando os cabeçalhos e trailers

Na camada de enlace de dados, cabeçalhos e trailers são adicionados aos dados da camada superior. O cabeçalho e o trailer contêm informações de controle destinadas à camada de enlace de dados no sistema de destino. O conjunto Cabeçalho + Dados + Trailer da camada de enlace chamamos de Quadro. Um quadro é uma unidade de dados de protocolo (PDU – Protocol data unit) da camada interface de rede.

O quadro Ethernet é definido da seguinte forma:



  • O Preâmbulo é um padrão de uns e zeros alternados usado para a sincronização da temporização em Ethernet assíncrona de 10 Mbps e em implementações mais lentas. As versões mais rápidas da Ethernet são síncronas, e essa informação de temporização é redundante mas mantida para fins de compatibilidade.
  • Um Delimitador de Início de Quadro (SDF - Start Frame Delimeter) consiste em um campo de um octeto que marca o final das informações de temporização e contém a seqüência de bits 10101011.
  • O campo Endereço de Destino contém um endereço de destino MAC. O endereço de destino pode ser unicast, multicast ou broadcast.
  • O campo Endereço de Origem contém um endereço de origem MAC. O endereço de origem é geralmente o endereço unicast do nó Ethernet que está transmitindo. Existe, contudo, um crescente número de protocolos virtuais em uso que utiliza, e às vezes, compartilha um endereço MAC de origem específico para identificar a entidade virtual.
  • O campo Comprimento/Tipo suporta dois usos diferentes. Se o valor for inferior a 1536 decimal, 0x600 (hexadecimal), então o valor indica o comprimento. O valor do tipo especifica o protocolo da camada superior que recebe os dados depois que o processamento da Ethernet estiver concluído. O tamanho indica o número de bytes de dados que vêm depois desse campo.
  • O campo Dados e o Enchimento, se necessário, pode ser de qualquer tamanho que não faça com que o quadro exceda o tamanho máximo permitido para o quadro, A MTU (Unidade de Transmissão Máxima) para Ethernet é de 1500 octetos. Portanto, os dados não devem exceder esse tamanho. O conteúdo desse campo não é especificado. Um enchimento não especificado será inserido imediatamente após os dados do usuário quando não houver dados de usuário suficientes para que o quadro satisfaça o comprimento mínimo para o quadro. A Ethernet exige que o quadro tenha entre 64 e 1518 octetos. Esse processo de inserção de dados para complementar um quadro muito pequeno é chamado de padding (enchimento).
  • Uma FCS, Frame Check Sequence (CRC Checksum) contém um valor CRC de 4 bytes que é criado pelo dispositivo emissor e recalculado pelo dispositivo receptor para verificar se há quadros danificados. Já que a corrupção de um único bit em qualquer lugar desde o início do Endereço de Destino até o final do campo FCS fará com que o checksum seja diferente, o cálculo do FCS inclui o próprio campo FCS. Não é possível distinguir entre a corrupção do próprio FCS e a corrupção de qualquer outro campo usado no cálculo.


Juntando Tudo

Agora vamos ver todas as funcionalidades da camada de enlace de dados juntas.

No processo de envio de algum dado, a camada de enlace pega os dados, encapsula-os com um cabeçalho e trailer, preenchendo os campos Mac de origem e destino (função de endereçamento), o campo comprimento/tipo (identificação de conteúdos) e o campo FCS (detecção de erros). Antes de transmitir ele verifica se tem alguém transmitindo e ao transmitir verifica se houve colisão (arbitragem).

Na recepção, é verificada se o endereço de destino do quadro é igual ao endereço da placa de rede (endereçamento), é realizado novamente o cálculo do FCS e comparado com o original (verificação de erros) os cabeçalhos e trailers são removidos e os dados são passados para a camada superior competente (identificação de conteúdos).


Referências

* Cisco CCNA - Guia de certificação do Exame, 3a Edição
Wendell Odom

* Redes de Computadores, 4a Edição
Andrew S. Tanenbaum,

* Conteúdo Cisco NetAcad, versão 3.1.1

* Sites referenciados acima



Fechamento



Bem pessoal. Esse post acabou atrasando como disse anteriormente. Mas não pelo fato do comprimento, como vocês podem ver, mas pela condensação das idéias. Tive que juntar muita coisa em pouco espaço e firmar essa base para a segunda parte do post onde irei abordar alguns ativos, funcionamento e configurações básicas. Essa segunda parte eu acho que será mais difícil ainda! E como vocês sabem essa semana tem natal e a próxima ano novo! Mas vou me esforçar

O bom de rever conteúdos que você se habitua a tratar é que você começa a visualizar coisas que antes eram impossíveis. A primeira vista esse negócio todo de quadros, protocolos e siglas é muito estranho, mas aos poucos você se acostuma com a idéia. Então quem está desanimando, não desista! Pois agora que estamos começando a ver redes de verdade!

Um pequeno review

No post acima falamos do quadro (Frame) e seus campos, endereçamento MAC e controle de acesso ao meio (CSMA/CD). Agora nos vamos ver a utilidade desses conceitos.

Primeiramente vamos fazer uma abstração para compreender melhor o que seria um quadro, pra que precisamos desses campos e porque ter um controle de acesso ao meio.

Vamos imaginar que os computadores são pessoas e a rede é uma sala. Nessa sala todas as pessoas podem se comunicar apenas falando. Mas cada fala tem uma forma, uma língua (protocolo). Essa língua é definida por palavras (padrões). Dessa forma, se colocarmos um japonês nessa sala, só com brasileiros (considerando que nenhum assiste anime ou fez intercâmbio no Japão) o japonês não conseguirá se comunicar com ninguém, pois ele não “fala o mesmo protocolo”. Inclusive esse “fala” é um jargão muito comum em redes: “esse roteador fala OSPF??”. Voltando ao escopo. Todos nessa sala podem se comunicar através da fala, e como sabemos que a fala são ondas sonoras que se propagam pelo ar. Se comparado a redes, o ar é o meio de transmissão (cabo ethernet) e as ondas sonoras são os pulsos eletro-magnéticos gerados pelas interfaces ethernet. As ondas sonoras chegam até nossos ouvidos (interface) que, através da pressão sofrida pelas ondas gera uma oscilação dos tímpanos, “decodifica” essas ondas. Nossos ouvidos funcionam como interfaces ethernet que decodificam os impulsos eletromagnéticos do meio em sinais binários (uns e zeros).

Agora, o que acontece se todos falarem ao mesmo tempo? Ninguém se entende certo?! Por isso temos o controle de acesso ao meio. Quando alguém fala, todos os outros se calam. Como isso é feito? Antes de falar você tem que ouvir pra saber se alguém está falando (conforme definido pelo algoritmo CSMA/CD) e em caso positivo espera a pessoa terminar. Vamos considerar que a pessoa que quer falar é o Irado (para quem não conhece aqui tá o perfil dele: Irado). Ele primeiro ouve o meio e se estiver em silêncio, ele poderá falar. Mas ao mesmo tempo em que ele fala, ele ouve, pois alguém pode começar a falar ao mesmo tempo que ele, ocorrendo assim uma colisão. O que acontece se alguém fala ao mesmo tempo que o Irado? Ele age como um cavalheiro e avisa seus companheiros com um sonoro: “Eu to falando p***a!!!”. Esse sinal de aviso seria o sinal de JAM que tem como objetivo evitar que as pessoas continuem a falar. Enquanto isso, a pessoa que falou ao mesmo tempo que o Irado estará se recuperando do susto (tempo aleatório na ponta A) enquanto o Irado conta até 10 (tempo aleatório na ponta B) pra se acalmar e não partir a cara desse usuário que teima em não usar o google. Depois de contar até 10 o Irado tenta falar novamente, dessa vez (com razão) ninguém tenta falar ao mesmo tempo que ele!

Obs: Irado isso é só uma brincadeira OK?!


Outro padrão na nossa fala é sempre se dirigir a pessoa com quem estamos falando: “Fulano, você já atualizou seu kernel hoje?”. Dessa forma endereçamos à pessoa (fulano=Endereço MAC) a mensagem desejada. Geralmente, depois de falar o nome da pessoa esperamos alguns segundos antes de falar o restante da frase. Isso é para dar tempo da pessoa direcionar sua atenção à nossa pergunta. Se não esperarmos, muito provavelmente ouviremos um “hum?!” ou “oq?!”. Isso é porque não esperamos a pessoa se “sincronizar” à nossa conversa, função dos campos Preâmbulo e SFD do quadro. Por sorte quando conversamos com alguém não precisamos informar o tamanho da frase que falamos e nem que somos nós que estamos falando. Mas essas funções são substituídas pela visão da pessoa, reconhecendo a origem e vendo que não estamos mais falando, indicando que terminamos de transmitir (o campo comprimento tem o objetivo de prever o fim do quadro). Os dados são nossa pergunta, “você já atualizou seu kernel hoje”. O FCS tem como objetivo garantir que o que a pessoa ouviu foi o que enviamos. Esse função é exercida por aquela perguntinha chata que muitas vezes ouvimos como resposta de nossas perguntas: “você me perguntou se eu já atualizei meu kernel hoje?”. Como em redes podemos conversar com uma única pessoa, com todas as pessoas em um segmento de rede ou com um grupo definido. “Segmento de rede?“ calma, veremos isso hoje!

Ao falar com uma única pessoa, temos uma comunicação unicast: “fulano, você já atualizou seu kernel hoje?”. Quando falamos com um grupo de pessoas temos um multicast: “fulano e sicrano, vocês já atualizaram o kernel hoje?”. Quando falamos com todos ao mesmo tempo temos um broadcast: “Galera, vocês já atualizaram o kernel hoje”. Sempre que falamos “galera” todo mundo sabe que todos devem ouvir. Esse é o endereços de broadcast.

Outra abstração muito utilziada para ensinar é umaginar as redes como os correios. Você antes de mandar uma carta, escreve o conteúdo em um papel põe no envelope e envia a carta. O envelope seria o cabeçalho/trailer.

Com isso revisamos tudo o que vimos anteriormente, só que de uma forma subjetiva. Agora vamos para conceitos novos!


Segmentos de Rede

Segmentos de rede são trechos de uma rede. Podemos ter Segmentos em camada 2 ou segmentos em camada 3. Isso vai depender de com que equipamento é feita a segmentação.
Vamos ver a seguinte imagem:



Essa imagem tem 3 partes. Primeiro temos duas redes totalmentes segmentadas, costumamos dizer que são redes segregadas. Chamamos a rede da esquerda de Segmento A e a de direita de Segmento B. Como podemos ligar esses dois segmentos de rede? De diversas formas. Nas imagens apresentei 2 formas: com um HUB ou Repetidor e com uma Bridge ou Switche.

Com um HUB: Ao utilziar o HUB nós estendemos os segmentos de rede tornando ambos os segmentos (A e B) em um mesmo segmento. Isso é devido ao fato que um HUB é BURRO! Não, eu não to brincando não! Costumamos dizer que um hub é burro porque ele não tem "inteligência", ou seja, ele não toma decisões. Por isso ele une os dois segmentos. Um HUB funciona como um barramento, qualquer dado que você enviar nele todos (que esteja conectados nele) podem "ouvir" o tráfego e também ele permite a ocorrência de colisões.

Com um Switch: Ao utilizar o switch nós não unimos a rede, nos a interligamos. Teremos dois segmentos de reme na camada 2. Isso será melhor compreendido quando vermos o funcionamento de uma bridge/switch. O que interessa é que, em condições ótimas, os hosts do segmento A não escutarão as conversas do segmento B e não haverá colisões entre os segmentos. Muita atenção aqui. A rede não está livre de colisões no geral porque temos os HUS em cada segmento, mas ENTRE os segmentos pode-se dizer que não haverá colisões.

Sempre que expandimos uma rede podemos aumentar, manter ou diminuir o tamanho do segmento, tudo depende de que ativos utilizamos. Conforme vão sendo adicionados nós a um segmento físico Ethernet, vai aumentando a competição pelos meios. E quantos mais nós adicionamos mais perdemos em termos de throughput. Throughput é a velocidade real de uma rede. Pode-se dizer que uma rede de 100Mbps com 4 hosts tem um throughput pouco inferior a 25Mbps, considerando que todos falem ao mesmo tempo. Isso é porque os 100Mbps serão divididos para os 4 hosts. “E porque um pouco inferior?!”. Porque, como vimos, quando enviamos dados de um host para outro não enviamos apenas os dados enviamos cabeçalhos e dados de controle, isso se chama overhead. O overhead varia de acordo com a pilha de protocolos utilizados. Agora vamos às bridges...


Bridge

A Ethernet compartilhada funciona extremamente bem sob condições ideais. Quando o número de dispositivos que tentam acessar a rede é baixo, o número de colisões permanece bem dentro dos limites aceitáveis. No entanto, quando aumenta o número de usuários na rede, o aumento do número de colisões pode causar um desempenho inaceitavelmente baixo. O uso de bridges foi elaborado para ajudar a amenizar os problemas de desempenho que surgiram devido ao aumento das colisões. Uma das funções da bridge é a segmentação do domínio de colisão. Pode-se dizer que o domínio de colisão é a mesma coisa que segmento de camada 2.

A bridge é um dispositivo de camada dois que possui duas interfaces suas principais funções são a segmentação de tráfego em camada 2, isto é, a bridge encaminha ou descarta os quadros baseados nas entradas da tabela MAC.

O que é segmentar. Segmentar é separar. Então ao segmentar uma rede, nos a separamos. Separamos com base no que?! Como disse segmentação de camada 2. Logo separamos com base na camada 2. Ou seja, com base no endereço MAC. Mas se você se recorda eu havia dito que o endereço MAC é único para todas as interfaces e ela possui um início baseado no fabricante. Com o endereçamento MAC não conseguimos criar grupos, sub-grupos ou redes, por isso dizemos que o MAC é um endereçamento linear. Então o único jeito é criar uma tabela de endereços MAC dinamicamente na memória da bridge. Todas as decisões feitas por uma bridge são baseadas no na tabela MAC e no endereço MAC de destino do pacote e não afetam o endereçamento lógico ou da Camada rede (apenas guarde isso, será útil futuramente). Assim, uma bridge divide um domínio de colisão, mas não tem efeito nenhum no domínio de broadcast. “Opa, domínio de colisão e domínio de broadcast?!?!”. Ok... Definição formal:

Domínio de colisão: É um segmento de rede (cabos e ativos) em que um pacote pode trafegar e colidir.
Domínio de broadcast: É um segmento de rede (cabos e ativos) em que um host pode se comunicar com outro sem a necessidade de um dispositivo de camada 3.


Switching

Para entendemos melhor esses conceitos de domínios temos que entender como a bridge funciona. Em suma, quando uma bridge recebe um pacote ela consulta a tabela MAC procurando uma ocorrência do MAC de origem. Ao encontrar, ele sabe se deve ou não encaminhar esse pacote para a outra interface. Caso ele não encontra ele permite a passagem. Pode-se dizer que a bridge é um “firewall de camada 2” que cria suas regras dinamicamente. Abaixo uma animação de como a bridge funciona:

Esta imagem foi redimensionada. Clique na barra para ver a imagem em tamanho real. O tamanho da imagem original é 618x525.

O cenário é simples:
  • Dois segmentos de rede interligados por uma bridge;
  • Em cada segmento tem um Hub que, como sabemos, funciona como um barramento, repetindo o pacote recebido por todas as suas portas;
  • Temos 6 hosts com os endereços MACs escritos acima deles;
  • A bridge possui duas interfaces eth1 e eth2: A eth1 se conecta ao segmento da esquerda enquanto a eth2 se conecta ao segmento da direita.

Algumas “legendas”:
  • Quando os “cabos de rede” ficam vermelhos eles indicam que o pacote passa por todos esses cabos.
  • O envelope que aparece em baixo é o quadro de camada dois com os campos de MAC de origem (SRC) e MAC de destino (DST).
Passo 1
O host de MAC AAA quer se comunicar com o host BBB (não é BigBrother!!!). Ele monta um quadro com os dados de cabeçalho/trailer e envia o quadro pelo meio físico. Como ele está conectado a um HUB, todos os outros hosts conectados a esse HUB "recebem" esse pacote. Porque "recebem" entre aspas? Porque todos os hosts (com excessão do BBB e da Bridge) recebem mas não precessam, a pilha TCP/IP descarta o quadro porque o MAC de destino não é o deles. É aquela analogia da sala com várias pessoas feita anteriormente apesar de todos te ouvirem ninguém dá atenção pra sua conversa porque você não os chamou pelo nome.

Como o quadro é repetido para todos ele chega até o destino (BBB), mas antes vamos ver o que está acontecendo com a Bridge...

Ainda no passo 1, a Bridge recebe o quadro na interface eth1, mas como ela não é um host ela não tem o mesmo comportamente que eles (descartar o quadro). A Bridge faz mais ou menos assim:


Opa, chegou um quadro!! De onde veio? Do AAA pela eth1. Hum... isso pode ser útil, vou anotar! - Ela pega uma prancheta com uma tabela que mais parece uma lista de convidados a adiciona o MAC AAA na primeira coluna e a porta eth1 na segunda coluna - Pra onde esse quadro vai? Hum, é pro BBB... - Ela olha de novo para a tabela e comenta - Hum... Esse cara não tá na minha lsita.. mas como vovó dizia, antes pecar pelo excesso que pela falta! Vou deixar esse quadro passar!


Nisso o pacote passsa o quadro para o segmento da direita e o burro do HUB repassa pra todo mundo. Porém todos nesse segmento descartam o pacote...

-Pausa-

"Porque que a Bridge só anotou o MAC AAA??" Essa é a pergunta mais importante que você pde ser fazer quando estuda switching! Pelo simples fato dela só ter certeza de onde vem o pacote e não poder afirmar com certeza pra onde ele vai!

-Continuando-

De volta ao BBB: "Chegou um quadro pra mim! Vou responder...". E o quadro de retorno é enviado para o HUB tagarela que repete pra todo mundo, inclusive a bridge. A bridge ao receber o quadro verifica em sua tabela MAC: "Epa, outro quadro. Quam mandou?! BBB?? Esse eu não tenho, vou anotar... Epa mas pera ai!!! esse quadro que entrou pela eth1 é pro host AAA! Mas que p***a, o host AAA ta ai na eth1, quem foi o burro que mandou isso?! Não vai passar...". Assim a bridge impede o envio do quadro para o segmento da esquerda.

Mas mesmo com esse "bloqueio" o quadro chega com sucesso ao AAA, pois ele nunca deveria ter ido pra bridge.

Esse é o processo de aprendizagem da Bridge. Ela se baseia sempre no campo MAC de origem para descartar os próximos quadros. Mas na dúvida ela deixa o pacote passar. Com o passar do tepo ela vai ficando mais eficiente. E é isso que veremos nos próximos passos.
Obs: Acho que deu pra entender ne?! Vou ser mais breve!!

Passo 2
Agora a comunicação é de AAA pra FFF. Ao enviar o quadro o HUB repete e a bridge recebe. A bridge olha a origem e ve que já conhece AAA, então ela analisa o destino e vê que não conhece FFF, então deixa o quadro passar.

Do outro lado o HUB repete o pacote para todos e o FFF recebe o quadro e envia a resposta que é novamente repassada pelo HUB até chegar na Bridge. Ao receber, a bridge já anota o FFF como estando na eth2 e verifica que o destino, AAA, está d outro lado (direito), então ela encaminha o quadro.

Passo 3
Agora, um quadro de DDD pra FFF. O quadro é enviado e repetido até chegar na bridge (e no próprio FFF). A bridge ao receber o quadro anota o MAC DDD vinculado à eth2 e depois descarta o pacote, uma vez que FFF, de a cordo com a tabela está em eth2.

O FFF envia uma resposta, o HUB repete e a Bridge recebe, assim como o DDD. A bridge verifica o destino, DDD, e não permite a passagem para o outro lado pois DDD está na eth2.

Dessa forma, nessa "conversa" do segmento da esquerda não foi "interrompida" por um quadro desnecessário.

Vocês devem estar pensando: "Ah, que besteira, é só um quadro de vez em quando! Não mata ninguém!". Vamos imaginar dois grupos (grupo 1 e grupo 2) de amigos e a conversa rolando solta. Sempre no grupo de amigos tem um chato, logo temos o chato 1 e o chato 2. Então quando alguém quer conversar mandar o chato ir ver se o fulano ta no grupo 2. Pouco depois do chato 1 sair vem o chato 2 perguntar se sicrano ta ai! Atrapalhou a conversa de todo mundo certo?? "Ah, mas nem tanto!!" OK, imagine agora 50 grupos de amigos. Quando alguém do grupo 1 fala, o chato 1 tem que ir nos 50 grupos procurar o fulano. Não só isso, os outros 49 chatos virão incomodar seu grupo de amigos. E ai?! Se preocupou agora?! Pois é...

Esse processo de permitir ou não a passagem de quadros com base no endereço MAC é chamado de switching ou comutação.


Referências

* Cisco CCNA - Guia de certificação do Exame, 3a Edição
Wendell Odom

* Redes de Computadores, 4a Edição
Andrew S. Tanenbaum,

* Conteúdo Cisco NetAcad, versão 3.1.1

Camada Física


Chegando a 3 parte desse curso veremos a camada física do modelo OSI. Tentarei cobrir uma camada a cada post, não sei se vou conseguir Mas antes vamos rever um pouco as camadas OSI e TCP/IP.

Eu gosto de dizer que o modelo de 7 camadas OSI foi enxuto e resumido em 5 camadas no TCP/IP. Cada camada do OSI tem seu "relativo" no TCI/IP. Digo relativo pois não são idênticos, cada um utiliza uma gama de protocolos diferentes, porém todos tem a mesma finalidade. O modelo OSI pode ser comparada ao modelo TCP/IP da seguinte forma:



Eu gosto muito da "resumida" do TCP/IP. Só não sou 100% a favor pois não consigo tratar a camada Física e de enlaçe como sendo uma única coisa. Agora as camadas Sessão, apresentação e aplicação foram agrupadas perfeitamente na camada de aplicação. Realmente, controle de sessão, formatação de dados e apresentação dos dados para o usuário é função da aplicação e não da rede! Até mesmo porque nunca vingou um protocolo de "sessão"! Essa é a camada mais absurda do OSI...

Deixando de conversa vamos lá...


Camada Física


A camada física se refere aos meios de transmissão. Atualmente podemos dividir os meios de transmissão em três tipos:
  • Meios de Cobre;
  • Meios Óptiocos;
  • Meios sem Fio.

Os meios de cobre são usados em quase todas as redes locais. Estão disponíveis vários diferentes tipos de cabos de cobre, cada tipo tem suas vantagens e desvantagens. Uma seleção cuidadosa de cabeamento é a chave para uma operação eficiente de redes.
Os meios ópticos são freqüentemente usado para as transmissões ponto-a-ponto a grandes distâncias e com alta largura de banda necessárias para backbones das redes locais e em WANs.
A tecnologia sem fio oferece uma portabilidade verdadeira ao mundo da computação.


Especificações do cabeamento


Cada cabo possui uma especificações diferente e de acordo com a especificação, possui um desempenho diferente.

As especificações levam em conta as seguintes características:
  • Velocidades para transmissão de dados
  • Tipo de transmissão (transmissões digitais ou analógica) A transmissão digital ou de banda base, e a transmissão baseada na tecnologia analógica ou de banda base, são as duas escolhas.
  • Distância que um sinal percorre até ser atenuado de forma a não ser reconhecido

Alguns exemplos de especificações Ehternet:
  • 100BASE-TX
  • 10BASE5
  • 10BASE2

Vamos tomar como exemplo a notação 100BASE-TX:
  • O primeiro número, 100, indica a velocidade de transmissão, 100Mbps.
  • O BASE indica que ele deve ser utilizado para transmissão em banda base (sinal digital). Para sinais analógicos seria utilizado a notação BROAD, banda larga.
  • A última letra/número indica o tipo de cabo e a distância. TX indica um cabo par trançado que transmite em até 100 metros.

Outros valores que podemos encontrar serão detalhados abaixo.
  • 10BASE-T - Velocidade de transmissão a 10 Mbps, tipo de transmissão é banda base e utiliza par trançado.
  • 10BASE5 - Velocidade de transmissão a 10 Mbps, tipo de transmissão é banda base e o 5 representa o limite de transmissão de aproximadamente 500 metros. O 10BASE5 é geralmente conhecida como Thicknet. O cabeamento Thicknet era utilizado antigamente para backbone e ligação entre prédios.
  • 10BASE2 - Velocidade de transmissão a 10 Mbps, tipo de transmissão é banda base e o 2 representa o limite de transmissão de aproximadamente 200 metros. A 10BASE2 é geralmente conhecida como Thinnet.

Cabo Coaxial

O cabo coaxial consiste em um condutor de cobre envolto por uma camada isolante flexível. O condutor central também pode ser feito de um fino cabo de alumínio laminado, permitindo que o cabo seja industrializado a baixo custo. Sobre o material isolante, há uma trança de lã de cobre ou uma folha metálica, que age como um segundo fio no circuito e como blindagem para o fio interior. Esta segunda camada, ou blindagem, também reduz a quantidade de interferência eletromagnética externa. A capa reveste esta blindagem. Geralmente classificado em thinnet e thicknet devido a sua espessura.

Par trançado
O cabo par trançado é composto por 4 pares (8 fios). Os cabos Par trançados são categorizados de 1 a 7. Essa categoria vem escrita na capa do cabo utilizando abreviações de “Category 5” (Cat. 5). Essas categorias são relacionadas à capacidade do meio. Baseado na atenuação, ruído e perda os cabos são direcionados para uma certa aplicação conforme abaixo:
  • Cat 1 - Serviços telefônicos e dados de baixa velocidade
  • Cat 2 - RDSI e circuitos T1/E1 - 1,536 Mbps/2,048 Mbps
  • Cat 3 - Dados até 16 MHz, incluindo 10Base-T e 100Base-T
  • Cat 4 - Dados até 20 MHz, incluindo Token-Ring e 100B-T (extinto)
  • Cat 5 - Dados até 100 MHz, incluindo 100Base-T4 e 100Base-TX (extinto)
  • Cat 5e - Dados até 100 MHz, incluindo 1000Base-T e 1000Base-TX
  • Cat 6 - Dados até 200/250 MHz, incluindo 1000Base-T e 1000Base-TX
  • Cat 7 - Dados até 500/600 MHz

Tipos de Cabos

As redes gigabit ethernet devem utilizar cabos de categoria maior ou igual a 5e, para que a rede tenha um bom desempenho.
Aqui vamos nos dedicar mais aos cabos Cat. 5 devido a padronização e produção dos cabos acima do Cat. 6 não estarem completamente definidos. Eles geralmente são separados entre UTP (Unshilded Twisted Pair), STP (Shielded Twisted Pair) e ScTP (Screened Twisted Pair).

UTP - É o mais usado atualmente tanto em redes domésticas quanto em grandes redes industriais devido ao fácil manuseio, instalação, permitindo taxas de transmissão de até 100 Mbps. É o mais barato para distâncias de até 100 metros. Sua estrutura é de quatro pares de fios entrelaçados e revestidos por uma capa de PVC. Pela falta de blindagem este tipo de cabo não pode ser instalado próximo a equipamentos que possam gerar campos magnéticos (fios de rede elétrica, motores) e também não podem ficar em ambientes com umidade.

ScTP - Também referenciado como FTP (Foil Twisted Pair), os cabos são cobertos pelo mesmo composto do UTP, no entanto todos os pares são revestidos por uma capa metálica (Foil) enrolada sobre todos os pares trançados, o que contribui para um maior controle de EMI (Interferência Eletromagnética), embora exija maiores cuidados quanto ao aterramento.

STP - Ou Par Trançado Blindado (cabo com blindagem). É semelhante ao ScTP. A diferença é que além da blindagem externa de todos os pares ele possui uma malha de blindagem sobre cada par. É usado em ambientes com interferência eletromagnética. Por causa de sua blindagem possui um custo mais elevado.




Os cabos pares trançados utilizam conectores RJ-45 para sua terminação. Pra cabos com blindagem é necessária a utilização de conectores RJ-45 especiais que possuem uma parte metálica. Isso se deve à necessidade de manter um “terra único” para todo o cabeamento estruturado. Dessa forma não só o RJ-45 deve ser diferenciado mas também o jack, os keystones e patch pannels que venham a se conectar a esse cabeamento blindado.
A pinagem do cabo par trançado também é muito importante. Existem 2 padrões para a pinagem TIA/EIA-568-A e TIA/EIA-568-B. Esses padrões podem ser vistos ns imagem a seguir:






Quando utilizamos uma cabo com o mesmo padrão em ambas as extremidade dizemos que ele é um cabo pino-a-pino, ou direto. Se utilizarmos uma extremidade com um padrão e a outra extremidade com outro padrão teremos um cabo cross-over.
  • Os cabos diretos são utilizados para realizar conexões entre dispositivos de categorias diferentes como: PC-roteador, PC-swich, PC-Modem e Hub-switch.
  • Os cabos cross-over são utilizados para interligar equipamentos da mesma categoria como: switch-switch, roteador-roteador, Modem-modem e PC-PC.

Essa classificação é devido a categorização dos equipamentos como DTE (data termination equipment) e DCE (data communication equipment) que seriam equipamentos que “geram/recebem a comunicação” (DTE) e equipamentos que provêem essa comunicação (DCE). Atualmente muitos switches e roteadores possuem a capacidade de detectar o tipo de cabeamento utilizado e se auto-ajustar.

Existe também o cabo roll-over utilizado para realizar a conexão entre a porta serial do PC e a porta de console de roteadores. Essa conexão pode ser feita através de um conversor (tranceiver) RJ-45 para DB-9.

Se observarmos um cabo cross-over simplesmente possui os pinos 1-3 e 2-6. Com isso muitas pessoas dizem que basta apenas realizar esse cruzamento. E pode desprezar o restante dos cabos. Essa afirmação é apenas para redes que chegam a apenas 100Mbps. Redes de 1GBps utilizam os 4 pares para realizar a transmissão, dessa forma todos os cabos importam. Outra afirmação que costumamos ouvir é que não importa a a ordem porque “a cor não vai influir”. Realmente a cor não influi, mas os cabos pares trançados forma projetados com uma certa trançagem que provê cancelamento entre os pares. Então ao mudar a ordem dos pinos você perde “a qualidade” do cabo.

Abaixo uma lista da maioria dos padrões ethernet sobre cobre:
Xerox Ethernet – Primeira implementação ethernet;
  • 10BASE5 – Padrão Thinnet;
  • 10BROAD36 – Antigamente utilizado para comunicação entre distâncias mais longas entre modem;
  • 1BASE5 – Primeira tentativa de padronizar uma rede local de baixo custo;
  • StartLan 1 – Primeira implementação de ethernet sobre par trançado;
  • 10BASE2 – Padrão Thinnet ou Cheapnet;
  • StarLan 10 – Primeira implementação de 10Mbps sobre par trançado. Precursor do padrão 10BASTE-T;
  • 10BASE-T – Evolução do StarLan 10;
  • 100BASE-TX – Padrão mais utilizado atualmente, utiliza cabos par trançado cat. 5;
  • 100BASE-T4 – Implementação da comunicação a 100Mbps sobre cabos Cat. 3 utilizando todos os 4 pares;
  • 100BASE-T2 – Implementação da comunicação a 100Mbps sobre cabos Cat. 3 utilizando todos os 2 pares;
  • 1000BASE-T – Gigabit Ethernet sobre par trançado Cat. 5e ou 6;
  • 1000Base-CX – Anterior ao 1000BASE-T que possibilitou a comunicação Gigabit sobre cobre (anteriormente só implementada sobre fibra ótica) e utilizava cabos twiaxiais porém cobria pequenas distâncias (25m). Cabos twiaxiais tem a aparência ed dois cabos coaxiais “colados”.


Fibras Óticas


As fibras óticas utilizam a luz e o princípio da reflexão para realizar a transmissão. Como a fibra ótica não utiliza impulsos elétricos para realizar a transmissão ela não é susceptível a interferências eletromagnéticas porém a luz ainda sofre atenuação devido ao princípio da refração (não confundir com reflexão).
A fibra ótica é composta por um núcleo de vidro revestido por um encapamento. A luz é inserida (por lasers ou LEDs) no vidro e “viaja” através do núcleo de vidro através da reflexão nas “paredes” entre o vidro e o revestimento. Porém essa “parede” é perfeita e a luz é refratada perdendo potência.


Quanto menor o diâmetro do núcleo menor é a refração da luz e maior é o alcance da fibra. Com isso criou-se a classificação de fibras monomodo e multimodo. As fibras monomodo suportam apenas um modo devido ao seu pequeno diâmetro, variando de 8 a 10 microns (ou micrômetros), enquanto as fibras multímodo variam de 50 a 62,5 microns.



As fibras são compostas por um núcleo, revestimento interno, buffer (caso exista), Cordão de fibra (aramid) e a capa. O buffer é utilizado para suavizar as curvas e evitar que o núcleo se rompa. Existem dois padrões de construção, o tight-buffered e o loose-tube. No tight-bufeered o buffer é quase inexistente enquanto no loose-tube a parte “interna” da fibra fica “mergulhada” em um gel.



Em fibras monomodo são utilizados Lasers devido a necessidade de precisão enquanto na fibra multimodo pode ser utilizado lasers ou LEDs, sendo que lasers possibilitam que o sinal viaje por distancias maiores. As fibras podem ter também dois tipos de terminação ST e LC. Os conectores ST são geralmente utilizados para fibras monomodo enquanto os conectores SC são mais voltados para fibras multímodo. Com isso vemos que podemos ter muitas variações em fibras. De acordo com o tamanho do núcleo e o tipo de transmissor utilizado o alcance das fibras podem variar.

Abaixo alguns padrões de fibra:
  • 100BASE-FX – 100 Mbit/s ethernet sobre fibra óptica. Usando fibra ótica multimodo 62,5 mícrons tem o limite de 400 metros;
  • 1000BASE-SX – 1 Gbit/s sobre fibra multímodo e LEDs podendo atingindo até 550 metros;
  • 1000BASE-LX – Utilizado fibras monomodo e lasers pode-se atingir 5Km.
  • 10GBASE-SR – Projetado para suportar distâncias curtas sobre cabeamento de fibra multi-modo, variando de 26m a 82m dependendo do tipo de cabo. Suporta também operação a 300m numa fibra multi-modo;
  • 10GBASE-LX4 – Usa multiplexação por divisão de comprimento de ondas (DWDM - Dense Wavelength Division Multiplexing) para suportar distâncias entre 240m e 300m em cabeamento multi-modo. Também suporta 10km com fibra mono-modo;
  • 10GBASE-LR e 10GBASE-ER – Esses padrões suportam 10km e 40km respectivamente sobre fibra mono-modo;
  • 10GBASE-SW, 10GBASE-LW e 10GBASE-EW. Essas variedades usam o WAN PHY, projetado para interoperar com equipamentos OC-192 / STM-64 SONET/SDH. Eles correspondem à camada física do 10GBASE-SR, 10GBASE-LR e 10GBASE-ER respectivamente, e daí usam os mesmos tipos de fibra e suportam as mesmas ditâncias.

A camada física especifica também as características utilziadas para transmitir em cada tecnologia. Essas características englobam voltagem, corrente, frequência... Preferi dar mais foco nos meios de transmissão do que em carcterísticas de engenharia e mesmo assim achei que ficou grande e tive que cortar alguns conteúdos como problemas de ruidos em cabos par trançado (FEXT, NEXT e etc), problemas de fibras (microbends, macrobend, acoplamento e etc) e redes sem fio.

Acho q tudo isso acima deve esclarecer um pouco as coisas aos leigos q acham q rede é so puxar cabos.

Fontes: http://under-linux.org

Nenhum comentário: