24.5.08

informe exposicion frame relay

La técnica Frame Relay se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un costo menor.
Ofrece mayores velocidades y rendimiento, a la vez que provee la eficiencia de ancho de banda que viene como resultado de los múltiples circuitos virtuales que comparten un puerto de una sola línea. Los servicios de Frame Relay son confiables y de alto rendimiento. Son un método económico de enviar datos, convirtiéndolo en una alternativa a las líneas dedicadas. El Frame Relay es ideal para usuarios que necesitan una conexión de mediana o alta velocidad para mantener un tráfico de datos entre localidades múltiples y distantes.
Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión.

EJERCICIOS UNIDAD 3 CAPITULO 3

1. PPP se basa estrechamente en HDLC, que utiliza relleno de bits para prevenir que los bytes de bandera accidentales dentro de la carga útil causen confusión. Dé por lo menos una razón por la cual PPP utiliza relleno de bytes.

Point o Point Protocol. Protocolo Punto a Punto Si no utilizara el campo de Banderas o delimitadores no podría determinar el comienzo y el final de una trama en el enlace que establece de punto a punto.

2. Describa los tres tipos de estación de HDLC:

Estación Primaria: Controla el enlace de datos (Canal). Transmite “comandos” a las secundarias y recibe respuestas de ellas. Si el enlace es multipunto es responsable de mantener una sesión con cada estación.

Estación secundaria: actúa como una esclava de la estación primaria. Responde al comando de la estación primaria en forma de respuesta. No es responsable del control de línea y mantiene una sesión con la primaria.

Estación combinada: Transmite comandos y respuestas y recibe comandos y respuestas. Mantiene una sesión con otra estación combinada.

3. En qué difieren entre sí LAP B, LAP D y LAP M?

LAP B ( Link Access Procedure Balanced), se utiliza para conectar una estación a una red, únicamente en las configuraciones balanceadas de dos dispositivos.

LAP D ( Link Access Procedure, D Channel) se utiliza para acceso a enlaces para canales.

LAP M (Link Access Procedure, Modem). Se utiliza como procedimiento de acceso al medio para módems , realiza la conversión de asíncrono a síncrono, detecta errores y retransmite.

4. Investigue sobre ATM y RDSI e identifique las capas que implementan frente a OSI:

Hasta el momento no se ha encontrado una relación clara entre el modelo ATM y el desarrollado por OSI, para la interconexión de sistemas abiertos, algunos autores consideran que ATM, se refiere en su jerarquía a los niveles físico y alguna parte del nivel de enlace de datos de OSI, el modelo OSI es tomado como comparación por su amplia utilización como referencia de la implementación de redes de computadores en sistemas abiertos.

El modelo OSI, presenta siete niveles:

· Nivel físico.
· Nivel de enlace de datos.
· Nivel de red.
· Nivel de transporte.
· Nivel de sesión.
· Nivel de presentación.
· Nivel de aplicación.

Los tres primeros niveles son de soporte, tienen que ver con los aspectos físicos de transmisión de los datos , conexiones físicas, direcciones, transporte y fiabilidad. El nivel 4 asegura la transmisión fiable de extremo a extremo. Los niveles 5,6,7 proporcionan servicios de soporte para usuario.

El modo de transferencia Asíncrono ATM, presenta los siguientes niveles:

· Nivel físico.
· Nivel ATM.
· Nivel de Adaptación ATM.
· Niveles altos
Además tiene tres planos bien definidos,

· Plano de control.
· Plano de usuario.
· Plano de gestión.

En el nivel físico trata directamente con la información a nivel de bits, las conexiones. En el nivel ATM, realiza la conmutación, el enrutamiento y el multiplexaje. En el nivel de adaptación, adapta la información proveniente de los niveles superiores, en general la información del usuario.

El plano de control es el responsable de las funciones de control de llamada y control de conexión. El plano de usuario permite transferencia de información de usuario, incluyendo los mecanismos de control de flujo y recuperación de errores. El plano de gestión, tiene como función la gestión de recursos y parámetros residentes en las entidades de los protocolos.

EJERCICIOS UNIDAD 3 CAPITULO 2

1. Qué propiedades tienen en común los protocolos de acceso a canal WDMA y GSM? Consulte el GSM.
GSM son las siglas de Global System for Mobile communications (Sistema Global para las comunicaciones Móviles), es el sistema de teléfono móvil digital más utilizado y el estándar de facto para teléfonos móviles en Europa.
Definido originalmente como estándar Europeo abierto para que una red digital de teléfono móvil soporte voz, datos, mensajes de texto y roaming en varios países. El GSM es ahora uno de los estándares digitales inalámbricos 2G más importantes del mundo. El GSM está presente en más de 160 países y según la asociación GSM, tienen el 70 por ciento del total del mercado móvil digital.
La localización GSM es un servicio ofrecido por las empresas operadoras de telefonía móvil que permite determinar, con una cierta precisión, donde se encuentra físicamente un terminal móvil determinado.
Los distintos métodos que se emplean para la localización GSM son los siguientes:
Célula de origen (Cell of Origin), en el que se incluyen ID de célula (Cell ID) e ID de célula mejorada (Enhanced Cell ID).
ID de célula: la precisión de este método es de 200 m en áreas urbanas, 2 km en áreas suburbanas y varía entre 3 - 4 km en entornos rurales.
ID de célula mejorada: con este método se consigue una precisión muy parecida a la que ofrece el Cell ID para zonas urbanas, y en entornos rurales ofrece sectores circulares de 550 m.
Diferencia de tiempo observada o E-OTD (Enhanced-Observed Timed Difference): la precisión de este método depende del número de LMUs disponibles en la red, variando entre 50 m y 200 m con un LMU por cada 3 estaciones base.
Tiempo de llegada (Time of Arrival)
Angulo de llegada (Angle of Arrival)
Enhanced Observed Time Difference (estimación mejorada de la diferencia de tiempo)

2. Cuál es la tasa de baudios de la Ethernet de 10 Mbps estándar?

3. Por qué las redes LAN son de difusión?



4. Qué protocolo MAC presenta mayor eficiencia en una LAN: ALOHA o CSMA/CD?

CSMA/CD, siglas que corresponden a Carrier Sense Multiple Access with Collision Detection (en español, "Acceso Múltiple con Escucha de Portadora y Detección de Colisiones"), es una técnica usada en redes Ethernet para mejorar sus prestaciones. Anteriormente a esta técnica se usaron las de Aloha puro y Aloha ranurado, pero ambas presentaban muy bajas prestaciones. Por eso apareció primeramente la técnica CSMA, que fue posteriormente mejorada con la aparición de CSMA/CD.
En el método de acceso CSMA/CD, los dispositivos de red que tienen datos para transmitir funcionan en el modo "escuchar antes de transmitir". Esto significa que cuando un nodo desea enviar datos, primero debe determinar si los medios de red están ocupados o no.


5. A partir de IEEE 802.3 y de IEEE 802.11, comente tres diferencias entre las redes LAN cableadas y las inalámbricas.

· 802.11 Es un estándar para LAN inalámbricas que funciona en el rango de frecuencia de 5GHz con 54 Mbps Cubre entre 30 u 300 metros si no hay muros y obstáculos.
·
· Es la frecuencia para hornos microondasm teléfonos inalámbricos y dispositivos Bluetooth.
· Alcanza 460m en espacio libre.



6. Por qué se incluye el control de errores en la capa MAC en IEEE 802.11 pero no en IEEE 802.3?

· Porque el IEEE 802.3 proporciona una LAN estándar , denominada ETHERNET, esta se define en dos categorías banda base y banda ancha, la palabra base especifica una señal digital, la palabra ancha especifica una señal análoga.

EJERCICIOS UNIDAD 2 CAPITULO 4


18. Cuál es el propósito principal de la multiplexación?

La Multiplexación es el conjunto de técnicas que permite la transmisión simultanea de múltiples señales a través de un único enlace de datos.

6. Qué significa PCM y dónde se utiliza esta técnica comúnmente?


La Modulación por Impulsos Codificados (MIC o PCM por sus siglas inglesas de Pulse Code Modulation), es un procedimiento de modulación utilizado para transformar una señal analógica en una secuencia de bits.
En la Figura 1 se muestra la disposición de los elementos que componen un sistema que utiliza la modulación por impulsos codificados. Por razones de simplificación sólo se representan los elementos para la transmisión de tres canales.

15. Compare la modulación en frecuencia y en amplitud

En la modulación de amplitud tanto la frecuencia como la fase permanecen constantes mientras que4 la amplitud cambia. En la modulación de frecuencia, la frecuencia durante la duración del bit es constante y su valor depende de un bit cero o uno, tanto la amplitud de pico como la fase permanecen constantes.

Se conoce como modulación de digital a analógico, es el proceso de cambiar una de las características de una señal de base analógica en información ba

Esta modulación se implementa usando:
a. Modulación en amplitud AM
b. Modulación en frecuencia FM
c. Modulación en fase PM
En AM la amplitud de la onda portadora varía con la amplitud de la señal modulada.
En FM la frecuencia de la onda portadora varía con la amplitud de la onda modulada
En Radio AM, el ancho de banda de la señal modulada debe ser al menos dos veces el ancho de banda de la señal que se modula.
En radio FM, el ancho de banda de la señal modulada debe ser 10 veces el ancho de banda de la señal que se modula.
En PM la fase de la señal portadora varía con la amplitud de la señal que se modula.

13. Qué es la conversión de digital a analógico?

Se conoce como modulación de digital a analógico, es el proceso de cambiar una de las características de una señal de base analógica en información basada en una señal digital (ceros y unos). Un ejemplo lo tenemos cuando se transmiten datos de una computadora a otra a través de una red telefónica pública, los datos originales son digitales, pero debido a que los cables telefónicos transportan señales analógicas, es necesario convertir dichos datos. Los datos digitales deben ser modulados sobre una señal analógica ha sido manipulada para aparecer como dos valores distintos correspondientes al 0 y al 1 binario.

12. Qué es la conversión de analógico a digital?

Se hace principalmente en PCM (modulación por codificación de pulsos) donde se requiere muestrear y cuantificar cada muestra en un conjunto de bits y después asignar voltajes de nivel a los bits. El teorema de Nyquist especifica que la tasa de muestreo debe ser por lo menos dos veces el componente de frecuencia más alto de la señal original.

11. Qué es la codificación digital a digital?

Esta codificación o conversión digital a digital, es la representación de la información digital mediante una señal digital. El ejemplo más conocido es el de la transmisión de datos desde la computadora a la impresora. En esta codificación los unos y ceros binarios generados por la computadora se traducen a una secuencia de pulsos de voltaje que pueden propagarse por un cable.

10. Cuál es la diferencia entre codificación y modulación?

En la codificación se puede realizar en diferentes tipos como: Datos Digitales señales digitales, Datos digitales señales analógicas, Datos analógicos señales digitales, Datos analógicos señales analógicas: en la modulación es el envío de una señal, que toma el nombre de moduladora, a través de otra señal denominada portadora, de características óptimas para la transmisión a larga distancia. La modulación, es el proceso de cambiar una de las características de una señal de base analógica en información basada en una señal digital(ceros y unos).

9. Defina el concepto de codificación

Es una transformación o conversión de Datos digitales y/o análogas mediante diferentes reglas que permiten la transmisión o comunicación entre diferentes equipos de informática.

8. Explique por qué el ancho de banda de los pares trenzados y los cables coaxiales disminuye con la distancia.

Disminuye debido a que con las distancias pueden ser interferidos por el ruido, además las señales por la distancia se atenúan por ese motivo es necesario utilizar dispositivos que nos permitan recuperar la señal y amplificarla nuevamente.

5. Confeccione un esquema con las características técnicas de cada medio de transmisión


3. Cómo se puede medir el rendimiento del medio de transmisión?

Por su capacidad de transmisión de señales y la velocidad con la que lo hace.

2. El origen de las señales en la fibra óptica es.

- Señales luminosas. las transmisiones usan una luz en lugar de electricidad

EJERCICIOS UNIDAD 2 . CAPITULO 2

1. Los medios de transmisión se clasifican en:

- Medios guiados. Los medios guiados son aquellos que proporcionan un conductor de un dispositivo al otro e incluyen cables de pares trenzados, cables coaxiales y cables de fibra óptica. Una señal viajando por cualquiera de estos medios es dirigida y contenida por los límites físicos del medio. El par trenzado y el cable coaxial usan conductores metálicos (de cobre) que aceptan y transportan señales de corriente eléctrica. La fibra óptica es un cable de cristal o plástico que acepta y transporta eñales en forma de luz.

- Medios No guiados. Los medios o guiados o también llamados comunicación sin cable o inalámbrica, transportan ondas electromagnéticas sin usar un conductor físico. En su lugar, las señales se radian a través del aire (o, en unos pocos casos, el agua) y por tanto, están disponibles para cualquiera que tenga un dispositivo capaz de aceptarlas.

15. Tienen nivel físico las redes inalámbricas?

Las redes inalámbricas, si tienen medios físicos porque se utilizan para conectar a todos los elementos de una red. Las características de los medios de transmisión los hacen más o menos Las tecnologías inalámbricas se utilizan en situaciones donde es difícil o es demasiado caro utilizar el cableado.

14. Qué tipo de multiplexación tiene múltiples caminos?

La Multiplexación por división de frecuencia, ya que a través de un solo canal se pueden multicanalizar diferentes frecuencias.

3. Qué técnica de multiplexación transmite señales digitales?

La modulación Digital: Impulsos modulados en amplitud PAM, Impulsos modulados en posición, Imulsos modulados en duración PDM, Modulación por codificación de pulsos MIC.

12. Cuál es el propósito principal de la multiplexación?

El propósito principal es comjpartir un canal físico estableciendo sobre él varios canales lógicos

11. Qué técnica de transmisión transmite señales analógicas?

La modulación Portadora analógica: Modulación en amplitud AM, Modulación en frecuencia FM, modulación en fase PM.

9. Qué es el teorema de Nyquist?

El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon o simplemente criterio de Nyquist, es un teorema fundamental de la teoría de la información, de especial interés en las telecomunicaciones.
Este teorema fue formulado en forma de conjetura por primera vez por Harry Nyquist en 1928 ("Certain topics in telegraph transmission theory"), y fue demostrado formalmente por Claude E. Shannon en 1949 ("Communication in the presence of noise").
El teorema trata con el muestreo, que no debe ser confundido o asociado con la cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que no es reversible (se produce una pérdida de información en el proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión conocida como error o ruido de cuantificación y que establece un límite teórico superior a la relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una señal son valores exactos que no han sufrido redondeo o truncamiento alguno sobre una precisión determinada.
El teorema demuestra que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda.
Dicho de otro modo, la información completa de la señal analógica original que cumple el criterio anterior está descrita por la serie total de muestras que resultaron del proceso de muestreo. No hay nada, por tanto, de la evolución de la señal entre muestras que no esté perfectamente definido por la serie total de muestras.

3. Confeccione un esquema con las características técnicas de cada medio de transmisión.


2. Cite ejemplos de dispositivos de comunicaciones que tomen como base la concentración o la multiplexación para efectuar sus operaciones de transmisi

En telecomunicación, la multiplexación es la combinación de dos o más canales de información en un solo medio de transmisión usando un dispositivo llamado multiplexor. El proceso inverso se conoce como demultiplexación.
Existen muchas formas de multiplexación según el sistema de comunicación, los más utilizados son la multiplexación por división de tiempo o TDM (Time division multiplexing), la multiplexación por división de frecuencia o FDM (Frequency-division multiplexing) y la multiplexación por división en código o CDM (Code division multiplexing).
En informática, la multiplexación se refiere al mismo concepto si se trata de buses de datos que haya que compartir entre varios dispositivos (discos, memoria, etc.). Otro tipo de multiplexación en informática es el de la CPU, en la que a un proceso le es asignado un quantum de tiempo durante el cual puede ejecutar sus instrucciones, antes de ceder el sitio a otro proceso que esté esperando en la cola de procesos listos a ser despachado por el planificador de procesos. También en informática, se denomina multiplexar a combinar en un mismo archivo contenedor, varias pistas de dos archivos, por ejemplo de audio y vídeo, para su correcta reproducción.
En las telecomunicaciones es muy usada la multiplexación para dividir las señales en el espectro radioeléctrico. De esta manera, para transmitir los canales de televisión por aire, vamos a tener un ancho de frecuencia x, el cual habrá que multiplexar para que entren la mayor cantidad posible de canales de tv.

EJERCICIOS UNIDAD 2. CAPITULO 1


1. Dibuje y comente las diferencias entre una señal analógica y una señal digital.

Analógico indica algo que es continuo, un conjunto de puntos específicos de datos y todos los puntos posibles entre ellos. Una señal analógica es una forma de onda continua que cambia suavemente en el tiempo.

Digital indica algo que es discreto, un conjunto de puntos específicos de datos sin los puntos intermedios. Una señal digital es discreta. Solamente puede tener un número de valores definidos, a menudo tan simples como ceros y unos.

Hasta hace algunas fechas se utilizaba la señal análoga exclusivamente, la cual se emite a través de las líneas telefónicas (voz), movimientos, video, etc. Una señal análoga es una forma de onda continua que cambia suavemente en el tiempo. A medida que la onda se mueve de A a B, para a través de, e incluye un número infinito de valores en su camino. Este tipo de señal es la representada por la onda seno.. Una señal digital es por el contrario, discreta solamente puede tener un número de valores definidos. Estas señales son las utilizadas por sistemas computacionales, de allí el nombre digital.

EJERCICIOS UNIDAD 1. CAPITULO 3

1. Qué modo de transmisión se puede comparar a los siguientes justificando su respuesta:

a. Una discusión entre Lucía y Dora, Transmisión Asíncrona, porque un error de sincronismo implica la imposibilidad de interpretar correctamente la información.

b. Una conexión computador a monitor puede ser transmisión serie y paralelo porque los movimientos para comunicarse se realizan mediante un conjunto de bits que representan palabras en la computadora.

c. Una conversación educada entre tía Gertrudis y tía Rosana. Transmisión Síncrona, porque se ponen de acuerdo ejn el momento que comienza y acaba una información.

d. Una emisión por televisión. Simplex, porque permite la visualización de datos y se transmite en un solo sentido.

e. Una línea de tren reversible Semidíuplex o dúplex, la línea transmite en los dos sentidos simultáneamente.

2. Realice un cuadro comparativo entre los modos de transmisión, identificando ventajas, desventajas y características


3. Un gasoducto es un sistema simplex, semidúplex, dúplex o ninguno de los mencionados? Explique.

Un gasoducto es un sistema símplex porque el combustible solamente viaja en un solo sentido sin la posibilidad de hacerlo para el otro lado.

10. Elabore un diagrama explicativo del concepto de capa, interface, protocolo, primitiva y servicio en la arquitectura de una red.

CAPAS

PROTOCOLOS

INTERFASES

PROTOCOLOS

CAPAS

9. Relacione los niveles del protocolo TCP/IP con los niveles OSI

OSI
TCP/IP
Capa física
Nivel físico
Capa de Enlace
Nivel de enlace de datos
Capa de Red
Nivel de Red
Capa de Transporte
Nivel de tansporte
Capa de Sesión

Nivel de Aplicación.
Capa de presentación
Capa de aplicación

8. Agrupe los niveles OSI según su función

FUNCION DE COMUNICACION Y
FUNCION DE PROCESO

Capa física
Capa de Sesión
Capa de Enlace
Capa de presentación
Capa de Red
Capa de aplicación
Capa de Transporte
Capa de transporte

6. Enumere las características y funciones de cada una de las capas del modelo OSI:

LA CAPA FISICA:
1. Se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
2. Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.
3. Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.
FUNCIONES:
1. Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
2. Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
3. Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
4. Transmitir el flujo de bits a través del medio.
5. Manejar las señales eléctricas/electromagnéticas
6. Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
7. Garantizar la conexión (aunque no la fiabilidad de ésta).
CAPA DE ENLACE DE DATOS:
1. Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico.
2. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.
3. La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
4. Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo.
5. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).
CAPA DE RED:
1. El cometido de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
2. Adicionalmente la capa de red debe gestionar la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU de la capa 3 es el paquete.
3. Los switch también pueden trabajar en esta capa dependiendo de la función que se le asigne.
CAPA DE TRANPORTE
1. Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red.
2. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación.
3. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación.
4. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte.
5. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice.
6. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.
7. Para finalizar, podemos definir a la capa de transporte como: Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmentos.
CAPA DE SESION:
1. Controla la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
2. Controla la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
3. Mantiene puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.
4. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles.
5. En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén trasmitiendo archivos.

CAPA DE PRESENTACION:
1. El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres números, sonido o imágenes, los datos lleguen de manera reconocible.
2. Esta capa es la primera en trabajar más el contenido de la comunicación que cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
3. Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta interpretación de los mismos.
4. Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.
CAPA DE APLICACIÓN:
Ofrece a las aplicaciones(de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico, gestores de bases de datos y servidor de ficheros.
Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.
Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
HTTP (HyperText Transfer Protocol) el protocolo bajo la www
FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de ficheros
SMTP (Simple Mail Transfer Protocol) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico
POP (Post Office Protocol)/IMAP: reparto de correo al usuario final
SSH (Secure SHell) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.

5. Qué tiene que ver el FCC con las comunicaciones?

La FCC exige que los fabricantes de teléfonos celulares garanticen que sus teléfonos cumplen con los límites indicados para una exposición segura. Todo teléfono celular que esté en o por debajo de los niveles SAR (en otras palabras, cualquier teléfono que se venda legalmente en los Estados Unidos) es un teléfono "seguro", de acuerdo a estos patrones. El límite de la FCC para la exposición pública de teléfonos celulares es un nivel SAR de 1.6 vatios por kilogramo (1.6V/Kg.).

4. Visite los sitios de la ITU y la ISO entérese de lo que allí hacen. Analice el trabajo de estandarización que realizan y escriba un informe breve q

La UIT es la organización más importante de las Naciones Unidas en lo que concierne a las tecnologías de la información y la comunicación. En su calidad de coordinador mundial de gobiernos y sector privado, la función de la UIT abarca tres sectores fundamentales, a saber: radiocomunicaciones, normalización y desarrollo. La UIT también organiza eventos TELECOM y fue la principal entidad patrocinadora de la Cumbre Mundial sobre la Sociedad de la Información. La UIT tiene su sede en Ginebra (Suiza) y está formada por 191 Estados Miembros y más de 700 Miembros de Sector y Asociados.
Sector de Radiocomunicaciones: La gestión de los recursos internacionales del espectro de radiofrecuencias y la órbita de los satélites es parte fundamental de las actividades del Sector de Radiocomunicaciones de la UIT (UIT R). La UIT ha recibido el mandato, mediante su Constitución, de atribuir espectro e inscribir asignaciones de frecuencia, posiciones orbitales y otros parámetros de satélites, "a fin de evitar toda interferencia perjudicial entre las estaciones de radiocomunicaciones de los distintos países". Por consiguiente, el sistema internacional de gestión del espectro se basa en procedimientos reglamentarios para la notificación, coordinación e inscripción de frecuencias. Las principales tareas del UIT R también incluyen la elaboración de normas sobre sistemas de radiocomunicaciones que garanticen una utilización eficaz del espectro de radiofrecuencias y la realización de estudios relativos al desarrollo de sistemas de radiocomunicaciones.
Sector de Normalización La elaboración de normas es la actividad más conocida y también la más antigua de la UIT. El Sector de Normalización de las Telecomunicaciones (UIT-T), en la vanguardia de una industria que evoluciona como ninguna otra, adapta continuamente su trabajo y ha adoptado procedimientos más eficaces y una política de colaboración y mayor flexibilidad que permite responder a las necesidades de mercados cada vez más complejos.
Sector de Desarrollo: El Sector de Desarrollo de las Telecomunicaciones de la UIT (UIT-D) se creó para contribuir a difundir el acceso equitativo, sostenible y con un costo razonable a las tecnologías de la información y la comunicación (TIC), como medio para estimular un desarrollo social y económico más amplio. Con este fin, está impulsando la expansión a escala mundial de la conectividad de banda ancha, generalizada, simple y al alcance de todos, y que permita la migración hacia redes de la próxima generación (NGN).
ISO ISO is a network of the national standards institutes of 157 countries, on the basis of one member per country, with a Central Secretariat in Geneva, Switzerland, that coordinates the system. es una red de los institutos nacionales de normalización de 157 países, sobre la base de un miembro por país, con una Secretaría Central en Ginebra, Suiza, que coordina el sistema. ISO is a non-governmental organization: its members are not, as is the case in the United Nations system, delegations of national governments. La ISO es una organización no gubernamental: sus miembros no son, como es el caso en el sistema de las Naciones Unidas, las delegaciones de los gobiernos nacionales. Nevertheless, ISO occupies a special position between the public and private sectors. Therefore, ISO is able to act as a bridging organization in which a consensus can be reached on solutions that meet both the requirements of business and the broader needs of society, such as the needs of stakeholder groups like consumers and users. Por lo tanto, la ISO es capaz de actuar como un puente organización en la que pueda lograrse un consenso sobre las soluciones que satisfagan tanto las necesidades de las empresas y las necesidades más amplias de la sociedad, como las necesidades de los grupos interesados, como los consumidores y los usuarios.

Normas ISO:

- Hacer que el desarrollo, la fabricación y el suministro de productos y servicios más eficiente, seguro y limpio.
- Facilitar el comercio entre los países y hacerlo más justo.
- Proporcionará a los gobiernos con una base técnica para la salud, la seguridad y la legislación ambiental, y evaluación de la conformidad.
- Compartir los avances tecnológicos y las buenas prácticas de gestión.
- difusión de la innovación.
- Salvaguardia de los consumidores y usuarios en general, de productos y servicios.-make life simpler by providing solutions to common problems Hacer la vida más simple, proporcionando soluciones a problemas comunes.

3. Visite el sitio www.ietf.org, entérese de lo que allí hacen. Elija un proyecto y realice un informe de media página acerca del problema y la soluci

La UDE equipo también puede investigar y aplicar otras nuevas iniciativas de formación destinados a mejorar la eficacia y eficiencia de la IETF. Las siguientes ideas son objeto de debate, aunque no todos ellos se conviertan en nuevas sesiones de formación: La UDE es responsable de la coordinación con la Secretaría de IETF para programar las sesiones de capacitación, para determinar los temas que serán presentados en las sesiones temáticas, para la selección de la presentación, de la gestión del desarrollo y la revisión de materiales de capacitación, y de mantener un archivo de las de formación Materiales en el sitio web de Team EDU. El equipo dará la bienvenida a los comentarios de toda la comunidad IETF sobre el contenido y la exactitud de sus materiales de capacitación.
Cómo protocolo estructura de los documentos para que sean más fáciles de leer, entender y aplicar. Adicional sesiones técnicas que se tratan temas que IETF documento autores y revisores deben considerar en la elaboración de protocolos dentro de la IETF. Aunque no todas estas ideas pueden convertirse EDU Equipo sesiones, la información sobre la investigación de estos temas se comunicarán a la comunidad a través de la edu- discutir en la lista de correo y abrir EDU reuniones de los equipos. Con el fin de permitir la visibilidad y la comunidad IETF aportara a las actividades educativas, los archivos de la lista de correo del equipo EDU están a disposición del público, y una lista de discusión pública está disponible para el debate abierto de nuestras actividades. La UDE equipo mantiene un sitio web que contiene las actas de todas las reuniones del Equipo de EDU, así como otro tipo de información acerca de la labor en curso. El equipo también posee periódico abierto EDU reuniones de los equipos (aproximadamente una vez por año en reuniones de IETF) para informar sobre los planes y el progreso y la comunidad para recibir aportaciones y comentarios.

2. Investigue sobre los diferentes organismos existentes para el control de los estándares Estándares.

ANSI (American National Standard Institute): Asociación con fines no lucrativos, formada por fabricantes, usuarios, compañías que ofrecen servicios públicos de comunicaciones y otras organizaciones interesadas en temas de comunicación. Es el representante estadounidense en ISO. Que adopta con frecuencia los estándares ANSI como estándares internacionales.
CCITT (Comité Consultatif International de Télégraphique et Téléphonique): Organización de la Naciones Unidas constituida, en principio, por las autoridades de Correos, Telégrafos y Teléfonos (PTT) de los países miembros. Estados Unidos está representado por el departamento de Estado. Se encarga de realizar recomendaciones técnicas sobre teléfono, telégrafo e interfaces de comunicación de datos, que a menudo se reconocen como estándares. Trabaja en colaboración con ISO (que en la actualidad es miembro de CCITT).
ISO (International Organization for Standarization): Agrupa a 89 países, se trata de una organización voluntaria, no gubernamental, cuyos miembros han desarrollado estándares para las naciones participantes. Uno de sus comités se ocupa de los sistemas de información. Han desarrollado el modelo de referencia OSI (Open Systems Interconnection) y protocolos estándar para varios niveles del modelo.
EIA (Electronic Industries Association): Asociación vinculada al ámbito de la electrónica. Es miembro de ANSI. Sus estándares se encuadran dentro del nivel 1 del modelo de referencia OSI.

EJERCICIOS UNIDAD 1 . CAPITULO 2

1. Cuál es la utilidad del uso de los estándares en comunicaciones?
Son útiles para poder establecer una comunicación entre computadores, lo mismo para establecerla entre personas, estos estándares proporcionan un modelo de desarrollo que hace posible que un producto funcione adecuadamente con otros sin tener en cuenta quien lo ha fabricado. Son esenciales para crear y mantener un mercado abierto y competitivo entre los fabricantes y equipos y para garantizar los procesos de telecomunicaciones

EJERCICIOS UNIDAD 1. CAPITULO 1

1. Identifique los componentes de un sistema de comunicaciones

Existen cinco elementos básicos y necesarios para la comunicación:

Emisor o Transmisor: es la fuente de los datos a transmitir.
Medio o canal: posibilita la transmisión.
Receptor: es el destinatario de la información.
Mensaje: Constituido por los datos a transmitir.
Protocolo: es el conjunto de reglas previamente establecidas que definen los procedimientos para que dos o más procesos intercambien información. Además, se dice que estas reglas definen la sintaxis, la semántica y la sincronización del protocolo.

2. Investigue sobre el uso de las redes en los diferentes ambientes:
Las Redes dan la posibilidad de compartir con carácter universal diferentes servicios entre grupos de empresas. Su eficacia se basa en la confluencia de muy diversos componentes, en nuestra vida cotidiana conocemos y hacemos uso de diferentes tipos de redes como por ejemplo la
Red eléctrica: Es un conjunto de instalaciones que se utilizan para transformar otros tipos de energía en electricidad y transportarla hasta los lugares donde se consume. Las redes eléctricas también permiten utilizar la energía hidroeléctrica a mucha distancia del lugar donde se genera.

La Red de Acueducto: es un canal artificial construido para transportar agua y abastecer a una población. Puede ser un canal abierto o cerrado, un túnel o una tubería, o puede ser un puente que eleve el canal sobre un valle o un río.

La Red de Alcantarillado: Las aguas residuales son transportadas desde su punto de origen hasta las instalaciones depuradoras a través de tuberías, generalmente clasificadas según el tipo de agua residual que circule por ellas. Los sistemas que transportan tanto agua de lluvia como aguas residuales domésticas se llaman combinados.

Red (geografía): dispositivo espacial que garantiza la circulación de materias, bienes, personas o informaciones. Una red se compone de puntos (o nudos) y líneas conectados entre sí de manera más o menos jerárquica. La noción de red es esencial para entender todas las formas de organización del espacio geográfico que, a la escala que sea, implica movimiento. Los sistemas de circulación no necesitan siempre de la existencia de una infraestructura pesada y visible.

Red de Transportes: En geografía humana, una red de transportes implica un mallado mínimo del espacio, que ofrezca una multiplicidad de caminos a la circulación. Una carretera o una vía férrea única en una región pionera no forma una red.
Red (informática): conjunto de técnicas, conexiones físicas y programas informáticos empleados para conectar dos o más ordenadores o computadoras. Los usuarios de una red pueden compartir ficheros, impresoras y otros recursos, enviar mensajes electrónicos y ejecutar programas en otros ordenadores.

Redes Telefónicas: las primeras redes telefónicas utilizaban cables de acero o de cobre para transmitir la señal eléctrica. Sin embargo, a medida que el volumen de llamadas y la distancia entre las centrales de conmutación creció, fue necesario utilizar otras vías de transmisión. Las más usadas son el cable coaxial y submarino, por radio (sea por microondas o por satélite) y hoy día la fibra óptica. La conexión entre las centrales telefónicas y los abonados se realizan todavía utilizando un par de cables de cobre para cada abonado. Sin embargo, en algunas grandes ciudades ya se han empezado a sustituir éstos por fibra óptica.

3. Cuál es la función de los protocolos de comunicaciones?

Como en las relaciones humanas, es una señal mediante la cual se reconoce que puede tener lugar la comunicación o la transferencia de información. Los protocolos de intercambio se pueden controlar tanto con hardware como con software. Un protocolo de intercambio de hardware, como el existente entre un ordenador o computadora con una impresora o con un módem, es un intercambio de señales, a través de cables específicos, en el que cada dispositivo señala su disposición para enviar o recibir datos. Un protocolo de software, normalmente el que se intercambia durante las comunicaciones del tipo módem a módem, consiste en una determinada información transmitida entre los dispositivos de envío y de recepción. Un protocolo de intercambio de software establece un acuerdo entre los dispositivos sobre los conjuntos de normas que ambos utilizarán al comunicarse.




4. De dos ejemplos de ventajas y desventajas del uso de los protocolos en las redes.

Ventajas - Se encargan de localizar los equipos a través de la red, con independencia de su situación o el camino a segur para alcanzarlos.
- Automáticamente resuelve los problemas que se presentan durante el intercambio de datos, fallas en las líneas de comunicación, errores, perdida o duplicación de datos.

Desventajas - No ofrece garantía de que los mensajes alcancen su destino debido a los posibles fallos en las redes de comunicaciones.
- Es un mecanismo de comunicación entre computadoras y no entre aplicaciones.

5. Realice un cuadro comparativo entre las redes LAN, MAN, WAN e Inalámbricas, identificando claramente las características y propiedades de cada una: ámbito geográfico, velocidad de transmisión, etc.

REDES LAN
REDES MAN
REDES WAN
Redes de Área Local LAN

Redes de Área Metropolitana MAN.

Redes de Área Extensa WAN.

Cubre una extensión reducida como una empresa, un colegio, una universidad.
Cubren extensiones mayores como puede ser una ciudad o un distrito.
Cubren grandes regiones geográficas como un país, un continente o el mundo entero
Se conecta por cables y tarjetas de red en cada equipo.
Utiliza diferentes tipos de conexión guiados e inalámbricos.
Para enlazar puntos utiliza cable transoceánico o satélites.
Son de propiedad privada
Puede ser privada o publicas.
Generalmente están a disposición de los usuarios.
Usará un único medio de transmisión.

Dependen de su propio hardware para transmisión
Pueden utilizar dispositivos de comunicación públicos, alquilados o privados






6. Enumere las características de los servicios que provee una LAN

1. Información: permitirán que los datos circulen directamente desde el ordenador de origen hasta el de destino sin interferencia de otras computadoras.
2. Mejora la transmisión de flujos continuos de datos, como señales de audio o de vídeo.
3. El uso generalizado de ordenadores portátiles ha llevado a importantes avances en las redes inalámbricas.
4. Las LAN inalámbricas de infrarrojos conectan entre sí computadoras situadas en una misma habitación, mientras que las LAN inalámbricas de radiofrecuencia pueden conectar computadoras separadas por paredes.
5. Las nuevas tecnologías de LAN son más rápidas y permiten el empleo de aplicaciones multimedia y videoconferencia, al poder transferir sonido y vídeo en tiempo real.
6. En la actualidad ya existen redes que utilizan el modo de transferencia asíncrono (ATM, Asyncronous Transfer Mode) y LAN con Ethernet que son entre 10 y 15 veces más rápidas que las LAN corrientes.
7. Para aprovechar la mayor rapidez de las LAN, los ordenadores deben aumentar su velocidad, en particular la del bus, la conexión que une la memoria del ordenador con la red. También influye en la velocidad de transmisión el soporte lógico que se utilice, que debe ser capaz de transferir eficientemente grandes cantidades de datos desde las redes a las aplicaciones informáticas.

7. Detalle esquemáticamente las distintas tecnologías con las que se puede construir una red WAN.



8. Realice un cuadro comparativo entre las diferentes topologías de red identificando claramente las características de cada una:

REDES
BUS
ESTRELLA
ANILLO
ARBOL
MALLA







BUS
ESTRELLA
ANILLO
ARBOL
MALLA

Conectadas a un único canal de comunicaciones por medio de unidades interfaz y derivadores.

Las estaciones utilizan este canal para comunicarse con el resto.

Es la más sencilla por el momento.
La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos.

Permite que todos los dispositivos de la red puedan ver todas las señales de todos los demás dispositivos
Físicamente cada host está conectado a un cable común, por lo que se pueden comunicar directamente, aunque la ruptura del cable hace que los hosts queden desconectados.
Desventajas: Es común es que produzcan problemas de tráfico y colisiones, que se pueden paliar segmentando la red en varias partes.

si el cable se rompe, ninguno de los servidores siguientes tendrá acceso a la red.
Las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este.
Todas las estaciones están conectadas por separado a un centro de comunicaciones, concentrador o nodo central, pero no están conectadas entre sí. Esta red crea una mayor facilidad de supervisión y control de información ya que para pasar los mensajes deben pasar por el hub o concentrador, el cual gestiona la redistribución de la información a los demás nodos. La fiabilidad de este tipo de red es que el malfuncionamiento de un ordenador no afecta en nada a la red entera, puesto que cada ordenador se conecta independientemente del hub, el costo del cableado puede llegar a ser muy alto.
Su punto fuerte consta en el hub, aunque actualmente se remplazan por concentradores, por switches o conmutadores. Ventajas Fácil de implementar y de ampliar, incluso en grandes redes. Adecuada para redes temporales (instalación rápida). El fallo de un nodo periférico no influirá en el comportamiento del resto de la red. Sistema muy fiable. No hay problemas con colisiones de datos, ya que cada estación tiene su propio cable al hub central. Desventajas Longitud de cable y número de nodos limitadosEl fallo del nodo central puede echar abajo la red entera.

Las estaciones se conectan formando un anillo. Cada estación está conectada a la siguiente y la última está conectada a la primera.
Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación del anillo. La comunicación se da por el paso de un token de esta manera se evitan eventuales pérdidas de información debidas a colisiones.
Cabe mencionar que si algún nodo de la red se cae (término informático para decir que esta en mal funcionamiento o no funciona para nada) la comunicación en todo el anillo se pierde.En un anillo doble, dos anillos permiten que los datos se envíen en ambas direcciones. Esta configuración crea redundancia (tolerancia a fallos), lo que significa que si uno de los anillos falla, los datos pueden transmitirse por el otro.

Parecida a una serie de redes en estrella salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.
Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones.
Se comparte el mismo canal de comunicaciones
La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean posibles, según las características del árbol.
Cada nodo está conectado a uno o más de los otros nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.
El establecimiento de una red de malla es una manera de encaminar datos, voz e instrucciones entre los nodos.
Las redes de malla se diferencian de otras redes en que las piezas de la red (nodo) están conectadas unas con otras por uno u otro camino, mediante cables separados.
Esta configuración ofrece caminos redundantes por toda la red, de modo que si falla un cable, otro se hará cargo del tráfico.
Las redes de malla son autoregenerables: la red puede funcionar incluso cuando un nodo desaparece o la conexión falla, Consecuentemente, se forma una red muy confiable, es una opción aplicable a las redes sin hilos (Wireless), a las redes con cable (Wired), y a la interacción del software.Ofrece una redundancia y fiabilidad superiores.


9. Puede influir el número de usuarios en una red en el desempeño de la misma? Explique y amplié su respuesta.
Si influye ya que produce una congestión en la red, este fenómeno es producido, cuando a la red o parte de ella se le ofrece más tráfico del que puede cursar. Hay varias causas de congestión. Las mas importantes son: -La Memoria insuficiente de los conmutadores. Los paquetes se reciben demasiado deprisa para ser procesados (lo que produce que se llene la memoria de entrada). Además puede ser que en la memoria de salida haya demasiados paquetes esperando ser asentidos, entonces se llena memoria de salida. -Insuficiente CPU en los nodos. Puede que el nodo sea incapaz de procesar toda la información que le llega, con lo que hará que se saturen las colas. -Velocidad insuficiente de las líneas.

10. Las necesidades del comercio mundial motivaron la construcción de los canales de Suez y Canadá. Qué situaciones análogas pueden darse en las redes de comunicaciones?
Los canales de Suez y Canadá, representan complejos sistemas de canales que permiten a diferentes tipos de embarcaciones cruzar mares y océanos representando una importante vía para el comercio, uniendo y acortado distancias entre diferentes países. Pensamos que el comercio es muy importante en el desarrollo de los medios de comunicaciones, es el que ha planteado las necesidades de extenderse en las diferentes partes del mundo y estos medios son los más rápidos ya que en cuestión de segundos podemos comunicarnos de un continente a otro, es por eso que las redes de comunicación han evolucionado y se han creado cables transoceánicos que al igual que los canales acortan distancias, unen países atendiendo las necesidades en diferentes partes de cada país.

11. Realice un cuadro comparativo sobre la evolución de las Telecomunicaciones

1830
Las telecomunicaciones comenzaron con la utilización de telégrafo, que permitió diversos tipos de comunicaciones digitales utilizando códigos como el Morse inventado por Samuel Morse en 1820.
1839
. F. Cooke y charles Wheatstone inventaron un modelo de telégrafo que utilizaba el principio del galvanómetro inventado por André Ampere
1957
Estados Unidos crearon la Advanced Research Projects Agency ARPA, organismo afiliado al Departamento de Defensa para impulsar el desarrollo tecnológico. Este organismo resultó fundamental en el
desarrollo de las redes de computadoras y su producto más relevante: Internet.
1969
Se construye la primera red de computadoras de la historia. Esta red denominada ARPANET, estaba compuesta por cuatro nodos situados en UCLA, Universidad de California en los Angeles, SRI Standford Research Institute, UCSB Universidad de California en Santa Bárbara, y la Universidad de Atah. La primera comunicación entre dos computadoras se produce entre UCLA y Standford el 20 de Octubre de 1969.
1970 1980
coexistían varias docenas de arquitecturas de red. Los equipos de las compañías de mainframes como IBM, Digital, Burroughs y
Honeywell estaban aislados, ya que no podían comunicarse entre sí debido a que cada empresa aplicaba su propia arquitectura de red.
1987
sucedido numerosos acontecimientos que han convertido a las redes de computadoras en general, y a Internet en particular, en una nueva revolución cultural y social que ha afectado a prácticamente todas las facetas de la vida cotidiana.
Final Década de los Ochenta
Cuando el uso de las LAN (Local Area Network- Red de Área Local) era habitual, los fabricantes siguieron utilizando sus propios Protocolos. El aislamiento de los sistemas informáticos empezaba a ser inaceptable. Las empresas empezaron a darse cuenta de que las LAN, consideradas secundarias en sus inicios, se utilizaban cada vez más para resolver necesidades vitales en sus organizaciones.

12. Realice un cuadro comparativo sobre la evolución de las Informática
la informática parte desde el momento en que se crearon y evolucionaron las primeras máquinas de cálculo. El primer dispositivo manual de cálculo fue El Ábaco, que servía para representar números.
1550 – 1617
El matemático escocés, John Napier es un intento de simplificar las operaciones de multiplicación, división y exponenciación, inventó los logaritmos naturales o neperianos
1623
científico alemán Wilhelm Schickard (1592 – 1635) ideó una calculadora mecánica denominada reloj calculante, que funcionaba con ruedas dentadas y
era capaz de sumar y restar, pero no se pudo montar en aquella época, de tal forma que fue construida, según el diseño de su autor, a principios del siglo XX por ingenieros de IBM
1642
El matemático y filósofo francés Blaise Pascal (1623 – 1662) inventó la primera máquina automática de calcular completa a base de ruedas dentadas que simulaba el funcionamiento del ábaco. Esta máquina realizaba operaciones de suma y resta mostrando el resultado por una serie de ventanillas.
1650
Patridge, basándose en los descubrimientos de Napier, inventó la regla de cálculo, pequeña regla deslizante sobre una base fija en la que figuraban diversas escalas para la realización de determinadas operaciones.
1666
Samuel Morland inventó otro aparato mecánico que realizaba operaciones de suma y resta; se denominó máquina Aritmética de Morland y su funcionamiento y prestaciones se asemejan a los de la máquina de Pascal.
1672
El filósofo y matemático alemán Gottfried Wlhelm Von Leibnitz (1646 – 1716) mejoró la máquina de Pascal construyendo su calculadora universal, capaz de sumar, restar, multiplicar, dividir y extraer raíces cuadradas, caracterizándose por hacer la multiplicación de forma directa, en vez de realizarla por sumas sucesivas, como la máquina de Pascal.
1779
Mattieu Hahn diseñó y construyó una máquina de calcular capaz de realizar sumas, restas, multiplicaciones y divisiones.
1805
El francés Joseph Marie Jacquard (1752 – 1834), después de algunos intentos anteriores, construyó un telar automático que realizaba un control prefecto sobre las agujas tejedoras, utilizando tarjetas perforadas que contenían los datos para el control de las figuras y dibujos que había que tejer. Se puede considerar el telar de Jacquard como la primera máquina mecánica programada.

1820
El matemático inglés y profesor de la Universidad de Cambridge Charles Babbage (1792 – 1871) diseñó dos máquinas de calcular que rompían la línea general de las máquinas de aquella época por su grado de complejidad.
Augusta Ada Byron, (1788 – 1824), condesa de Lovelace, fue la primera persona que realizó programas para la máquina analítica de Babbage, de tal forma que ha sido considerada como la primera programadora de la historia.
1833
Babbage diseñó su segunda máquina, denominada máquina analítica, capaz de realizar todas las operaciones matemáticas y con posibilidad de ser programada por medio de tarjetas de cartón perforado (similares a las tarjetas de Jaquard), siendo además capaz de almacenar en su interior una cantidad de cifras considerable. Con esta máquina Babbage consiguió por primera vez en la historia definir los fundamentos teóricos de las computadoras actuales.
1854
El ingeniero sueco Pehr George Sheutz (1785 – 1873), apoyado por el gobierno de su país, construyó una máquina diferencial similar a la de Babbage, denominada máquina de tabular.
1854
El matemático inglés george Boole (1815 – 1864) desarrolló la teoría del algebra de Boole, que permitió a sus sucesores el desarrollo matemático del algebra binaria y con ella la representación de circuitos de conmutación y la aparición de la llamada “Teoría de los circuitos lógicos”.
1895
Hollerith incluyó en su máquina las operación de sumar con el fin de tilizarla para la contabilidad de los ferrocarriles Centrales de Nueva Cork. Esto constituyó el primer intento de realización automática de una aplicación comercial.
1910
James Power Diseñó nuevas máquinas censadoras siguiendo la idea de Hollerith.
1936
el matemático inglés Alan M. Turing (1912 – 1954) desarrolló la teoría de una máquina capaz de resolver todo tipo de problemas con solución algorítmica, llegando a la construcción teórica de las máquinas de Turing.
1937
H. Aiken (1900 – 1973), de la Universidad de Harvard, desarrolla la idea
de Babbage junto con su equipo de científicos de su departamento e ingenieros de IBM. El resultado de sus estudios culminó en la construcción de una calculadora numérica basada en el uso de relés electromagnéticos, ruedas dentadas y embragues electromecánicos, configurando la primer computadora electromecánica
1938
el Alemán Calude Shannon comenzó a aplicar la teoría del álgebra de Boole en la presentación de circuitos lógicos.
1940
John W. Mauchly y Joh Presper Eckert junto con científicos de la Universidad de Pensilvania construyeron en la escuela Moore de Ingeniería Eléctrica, a petición del Ministerio de Defensa de Estados Unidos, la primera computadora electrónica denominada ENIAC (Electronic Numerical Integrator and calculador) construida a base de válvulas al vacío, que entró en funcionamiento en 1945.
1942
el físico norteamericano John Vicent Atanasoff, profesor de la Universidad de Iowa, junto con su colaborador Cfford Berry construyeron una máquina electrónica que operaba en binario siguiendo la idea de Babbage. Fueron los primeros que intentaron la construcción de una máquina totalmente electrónica. Se llamó ABC (Atanasoff Berry Computer).
1944
el ingeniero y matemático John Von Neumann (1903 – 1957), de origen húngaro y naturalizado norteamericano, desarrolla la idea de programa interno y describe el fundamento teórico de construcción de una computadora electrónica denominada modelo de Von Neumann.
1949
John W. Mauchly y john Presper Eckert, tras fundar su propia compañóa, la Eckert – Mauchly Corporation, desarrollaron como primer proyecto una computadora binaria automática que se denominó BINAC (Binay Automatic Compouter) cuya novedad consistió en la realización de determinadas transmisiones de señales internas en paralelo. Con esta máquina aparecieron los diodos semiconductores en las computadoras, así como la utilización de las cintas magnéticas.
1951
John W. Mauchly construyó la primera computadora de serie puesta a la venta; ésta fue UNIVAC-I (Universal Automatic Computer – Computador Automático Universal), que también utilizaba cintas magnéticas.
1952
se realizó EDVAC (Electronic Discrete Variable Automatic Computer) y fue una modificación de la ENIAC. A partir de 1952 se construyen computadoras en serie, como las MANIAC-I, MANIAC-II Y LA UNIVAC-II (esta última con memoria de núcleos de ferrita), y con ella se acaba la prehistoria de la informática, dando paso a la era de las computadoras.
1971
apareció un circuito integrado denominado microprocesador, en el que se consiguió introducir todo el procesador de una computadora en un solo elemento.
GENERACION DE COMPUTADORES
Primera generación
(1940 – 1952). La constituyen todas aquellas computadoras diseñadas a base de válvulas al vació como principal elemento de control y cuyo uso fundamental fuela realización de aplicaciones en los campos científicos y militar. Utilizaban como lenguaje de programación el lenguaje máquina y como únicas memorias para conservar información las tarjetas perforadas, la cinta perforadora y las líneas de demora de mercurio.
Segunda generación
1952 -1964). Al sustituirse la válvula de vacío por el transistor, comenzó la llamada segunda generación de computadoras. En ella, las máquinas ganaron potencia y fiabilidad, perdiendo tamaño, consumo y precio, lo que las hacia mucho más prácticas y asequibles. Los campos de aplicación en aquella época fueron, además del científico y militar, el administrativo y de gestión; es decir las computadoras empezaron a utilizarse en empresas que se dedicaban a los negocios. Comenzaron además a utilizarse los llamados lenguajes de programación; entre ellos podemos citar el ensamblador y algunos de los denominados de alto nivel como Fortran, Cobol y Algol. Así mismo, comenzaron a utilizarse como memoria interna los núcleos de ferrita y el tambor magnético, y como memoria externa la cinta magnética y los tambores magnéticos.
Tercera generación
(1964 – 1971). En esta generación el elemento más significativo es el circuito integrado aparecido en 1964, que consistía en el encapsulamiento de una gran cantidad de componentes discretos (resistencias, condensadores, diodo y transistores), conformando uno o varios circuitos con una función determinada, sobre una pastilla de silicona o plástico. La miniaturización se extendió a todos los circuitos de la computadora, apareciendo las minicomputadoras. Se utilizaron tecnologías SSI Y MSI. También el software evolucionó de forma considerable con un gran desarrollo de los sistemas operativos, en los que se incluyó la multiprogramación, el tiempo real y el modo interactivo. Comenzaron a utilizarse las memorias de semiconductores y los discos magnéticos.
Cuarta generación
(1971 – 1981). En 1971 aparece el microprocesador, consistente en la integración de toda la UCP de una computadora en un solo circuito integrado. La tecnología utilizada es la LSI que permitió la fabricación de microcomputadoras y computadoras personales, asó como las computadoras monopastilla. Se utilizó además el diskette (floppy disk) como unidad de almacenamiento externo. Aparecieron una gran cantidad de lenguajes de programación de todo tipo y las redes de transmisión de datos (teleinformática) para la interconexión de computadoras.
Quinta generación
(1981 – 199?). En 1981, los principales países productores de nuevas tecnologías (Fundamentalmente Estados Unidos y Japón) anunciaron una nueva generación, cuyas características principales iban a ser:
1. Utilización de componentes a muy alta escala de integración (VLSI)
2. Computadoras con Inteligencia artificial
3. Utilización del lenguaje natural (lenguajes de quinta generación).
4. Interconexión entre todo tipo de computadoras, dispositivos y redes (redes integradas) y La gran red de redes Internet.
5. Integración de datos, imágenes y voz (entorno multimedia).
6. Redes neuronales
7. Realidad virtual.
8. Etcétera.


13. Qué relación encuentra entre los numerales 11 y 12 anteriores?

Hay mucha relación entre los numerales 11 y 12 porque con el desarrollo de la Informática y el tratamiento que esta le da a la información para que sea de manera automática y eficiente y lo cual lo ha logrado con la creación y evolución de computadoras cada vez más poderosas que permiten el avance de las Telecomunicaciones que han logrado que las personas se comuniquen muy fácilmente a sitios lejanos a bajo costo.