Recent Videos

Followers

About Me

jueves, 12 de abril de 2012

Como hacer un proyector casero


miércoles, 11 de abril de 2012

Steve Jobs en la universidad de Stanford




Como hacer una antena Wi-fi casera

Tutorial de como hacer una antena Wi-Fi




Dispositivos de salida

Dispositivos de salida
Son los dispositivos que reciben información que es procesada por la CPU y la reproducen para que sea perceptible para la persona.
Dispositivos de salida (entre otros):
Monitor: es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).

Puntos a tratar en un monitor:
Resolución (RESOLUTION): Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600.
Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
Tamaño de punto (DOT PITCH): Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.
Lo mínimo, exigible en este momento es que sea de 0,25 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen.
Controles y conexiones: Aunque se va cada vez más el uso de monitores con controles digitales, en principio no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a que los monitores con dichos controles sean los más avanzados de la gama.
Multimedia: Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de video. Esto resulta interesante cuando se trata de un monitor de 15'' ó 17'' cuyo uso vaya a ser doméstico, para juegos o videoconferencias.
Pantalla táctil: véase en dispositivos de entrada.
Impresoras: Dispositivo que sirve para captar la información que le envía la CPU y imprimirla en papel, plástico, etc. Hay varios tipos:
Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o para pequeñasempresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas características. Claro está que hay razones de peso que justifican éstas características, pero para imprimir algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el coste muy inferior.
Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables.
Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa velocidad y calidad frente a otras tecnologías.
Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto coste y solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el material que le pongamos las imágenes que le haya enviado la CPU.






Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces. Sin duda alguna, se nota perfectamente el esfuerzo que todos los fabricantes han realizado para ponerse al día en esta tecnología, ya que en poco tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o Dolby Digital.





Los más avanzados constan de 4 altavoces (2 delanteros y 2 traseros) de reducido tamaño, otro más central para los diálogos y un último altavoz mucho más voluminoso que se encarga de realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de otros juegos de altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es que incorporan un descodificador Dolby Digital, mediante el cual, podremos ajustar los volúmenes de cada juego de altavoces, así como aplicar diferentes filtros de sonido en funcíon del tipo de sonido que estemos reproduciendo en cada momento (música, película...etc). Para sacar partido de estos altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido.
La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los 6s altavoces no puede ser especialmente buena, aunque para un uso casero resulta más que válida. Otra cuestíon es la potencia. Tratándose de altavoces pequeños y baratos no conseguirán una fildelidad de sonido muy grande a poco que la habitación tenga un tamaño medio.
En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por tanto será inevitable gastar una cantidad de dinero bastante importante.
Auriculares: son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza.
Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta.









Los dispositivos de procesamiento

Los dispositivos de procesamiento

La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador omicroprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.


La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.


Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistoresdiscretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras,calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.





Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidos pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

CPU de transistores y de circuitos integrados discretos

Seguridad Informatica

Seguridad Informática


POR QUE ES IMPORTANTE LA SEGURIDAD EN LOS SISTEMAS INFORMATIVOS COMPUTACIONALES?


PORQUE ESTAS SON MEDIDAS PREVENTIVAS PARA REGUADAR INFORMACION Y NOS PERMIETEN TENERLA MAS
SEGURA DE CUALQUIR ROBO, PLAGIO O INFORMACION SECRETA LA CUAL NO PUEDE SER VISTA POR PERSONAL
NO AUTORIZADO. ESTA PRIVACIDAD SERIA COMO UNA CAJA FUERTE LA CUAL TIENE INFORMACION
Y SOLO NOSOTROS TENEMOS LA CLAVER , AL MENOS QUE LE QUERAMOS DAR ADCESO A OTRA PERSONA
DESEADA.




CUALES SON LOS PPROTOCOLOS DE SEGURIDAD PARA LA PROCTECCION DE LOS SISTEMAS?




Criptografía (Cifrado de datos), se ocupa del cifrado de mensajes un mensaje es enviado
por el emisor lo que hace es transposicionar o ocultar el mensaje hasta que llega a su
destino y puede ser descifrado por el receptor.


Lógica (Estructura y secuencia). Llevar un orden en el cual se agrupán los datos del
mensaje el significado del mensaje y saber cuando se va enviar el mensaje.


Autenticación. Es una validación de identificación es la técnica mediante la cual un
proceso comprueba que el compañero de comunicación es quien se supone que es y no se
trata de un impostor.






RECOMENDACIONES PARA TENER UNA CLAVE SEGURA?
QUE LA CONTRASEÑA ESTE ESCRITA CON 8 O MAS CARACTERES LOS CUALES TENGAN LETRAS EN MAYUSCULA
Y EN MINUSCULA, QUE CONTENGAN NUMEROS Y SIGNOS. HACI SELE ARA MUCHO MAS DIFICL ADCEDER DE
FORMA INLEGAL A CUALQUIER PERSONA NO AUTORIZADA.


RECOMENDACIONES DE SEGURIDD PARA QUE NO SEA ROBADA TU CLAVE?


CONSEJO 1: Nunca digas tus contraseñas, ni la respuesta de tu pregunta secreta a tus
compañeros, amigos, novio(a), familiares.


CONSEJO 2: No seas tan obvio en tu contraseña, por ejemplo no pongas tu fecha de nacimiento,
tu nombre o apellido, trata de poner algo que nadie sepa.


CONSEJO 3: Si generalmente compartes la maquina con alguien mas para entrar a revisar tu
mail, no dejes activadas las opciones de entrar automaticamente o la de recordar mis datos
y mas si vas a un cyber.


CONSEJO 4: Revisa en la mayoria de lo posible que la maquina tenga un antivirus actualizado,




CONSEJO 5: No des clic a lo loco en las paginas que te PRESENTE ALGO BONITO


LISTA DE PROGRAMAS PARA INSTALAR SISTEMAS DE SEGURIDAD?



-MYonlyusb
-avast
-kaperskin
'PC Tools Firewall Plus 7.0.0.123

martes, 10 de abril de 2012

Internet

Internet




Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.

El género de la palabra Internet es ambiguo, según el Diccionario de la lengua española de la Real Academia Española.
Web 1.0


La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.

La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.

Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.

Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.




Características

Terry Flew, en la tercera edición de New Media describe cual cree que son las diferencias que caracterizan a la Web 1.0:


"move from personal websites to blogs and blog site aggregation, from publishing to participation, from web content as the outcome of large up-front investment to an ongoing and interactive process, and from content management systems to links based on tagging (folksonomy)"

Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
Páginas estáticas en vez de dinámicas por el usuario que la visita
El uso de framesets o Marcos.
Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
Libros de visitas online o guestbooks
botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.
formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.










El término Web 2.0 está asociado a aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario y la colaboraciónen la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, losservicios de red social, los servicios de alojamiento de videos, las wikis, blogs,mashups y folcsonomías.




El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de softwarey usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.

Virus y Antivitus

Antivirus
En informática los antivirus son programas cuyo objetivo es detectar y/o eliminar virus informáticos. Nacieron durante la década de 1980.

Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.


Métodos de contagio

Existen dos grandes grupos de propagación: los virus cuya instalación el usuario en un momento dado ejecuta o acepta de forma inadvertida, o los gusanos, con los que el programa malicioso actúa replicándose a través de las redes.

En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una serie de comportamientos anómalos o no previstos. Dichos comportamientos son los que dan la traza del problema y tienen que permitir la recuperación del mismo.

Dentro de las contaminaciones más frecuentes por interacción del usuario están las siguientes:
Mensajes que ejecutan automáticamente programas (como el programa de correo que abre directamente un archivo adjunto).
Ingeniería social, mensajes como: «Ejecute este programa y gane un premio».
Entrada de información en discos de otros usuarios infectados.
Instalación de software que pueda contener uno o varios programas maliciosos.
Unidades extraíbles de almacenamiento (USB).
Descargas no seguras


Existen numerosos medios para combatir el problema; Sin embargo, a medida que nuevos programas y sistemas operativos se introducen en el mercado, más difícil es tener controlados a todos y más sencillo va a ser que a alguien se le ocurran nuevas formas de infectar sistemas.

Los métodos para contener o reducir los riesgos asociados a los virus pueden ser los denominados activos o pasivos.


Tipos de vacunas
Sólo detección: Son vacunas que solo actualizan archivos infectados sin embargo no pueden eliminarlos o desinfectarlos.
Detección y desinfección: son vacunas que detectan archivos infectados y que pueden desinfectarlos.
Detección y aborto de la acción: son vacunas que detectan archivos infectados y detienen las acciones que causa el virus
Comparación por firmas: son vacunas que comparan las firmas de archivos sospechosos para saber si están infectados.
Comparación de firmas de archivo: son vacunas que comparan las firmas de los atributos guardados en tu equipo.
Por métodos heurísticos: son vacunas que usan métodos heurísticos para comparar archivos.
Invocado por el usuario: son vacunas que se activan instantáneamente con el usuario.
Invocado por la actividad del sistema: son vacunas que se activan instantáneamente por la actividad del sistema operativo.
Copias de seguridad (pasivo)

Mantener una política de copias de seguridad garantiza la recuperación de los datos y la respuesta cuando nada de lo anterior ha funcionado.

Así mismo las empresas deberían disponer de un plan y detalle de todo el software instalado para tener un plan de contingencia en caso de problemas.
Planificación

La planificación consiste en tener preparado un plan de contingencia en caso de que una emergencia de virus se produzca, así como disponer al personal de la formación adecuada para reducir al máximo las acciones que puedan presentar cualquier tipo de riesgo. Cada antivirus puede planear la defensa de una manera, es decir, un antivirus puede hacer un escaneado completo, rápido o de vulnerabilidad según elija el usuario.

Virus informático

Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el códigode este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptual-mente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

Historia


El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm a creeper... catch me if you can!» (¡Soy una enredadera... agárrame si puedes!). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (cortadora).

Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Cuatro programadores (H. Douglas Mellory, Robert Morris, Victor Vysottsky y Ken Thompson) desarrollaron un juego llamado Core War, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible.

Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disqueteshasta los que se adjuntan en un correo electrónico.
Virus informáticos y sistemas operativos

Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más conocidos y usados en la actualidad.

Cabe aclarar que un virus informático mayoritariamente atacará sólo el sistema operativo para el que fue desarrollado, aunque ha habido algunos casos de virus multiplataforma.
MS-Windows

Las mayores incidencias se dan en el sistema operativo Windows debido, entre otras causas, a:
Su gran popularidad, como sistema operativo, entre los ordenadores personales, PC. Se estima que, en 2007, un 90% de ellos usaba Windows. Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno, motiva a los creadores de software malicioso a desarrollar nuevos virus; y así, al atacar sus puntos débiles, aumentar el impacto que generan.
Falta de seguridad en esta plataforma (situación a la que Microsoft está dando en los últimos años mayor prioridad e importancia que en el pasado). Al ser un sistema muy permisivo con la instalación de programas ajenos a éste, sin requerir ninguna autentificación por parte del usuario o pedirle algún permiso especial para ello en los sistemas más antiguos (en los Windows basados en NT se ha mejorado, en parte, este problema). A partir de la inclusión del Control de Cuentas de Usuario en Windows Vista o Windows 7, y siempre y cuando no se desactive, se ha solucionado este problema.
Software como Internet Explorer y Outlook Express, desarrollados por Microsoft e incluidos de forma predeterminada en las últimas versiones de Windows, son conocidos por ser vulnerables a los virus ya que éstos aprovechan la ventaja de que dichos programas están fuertemente integrados en el sistema operativo dando acceso completo, y prácticamente sin restricciones, a los archivos del sistema. Un ejemplo famoso de este tipo es el virus ILOVEYOU, creado en el año 2000 y propagado a través de Outlook.
La escasa formación de un número importante de usuarios de este sistema, lo que provoca que no se tomen medidas preventivas por parte de estos, ya que este sistema está dirigido de manera mayoritaria a los usuarios no expertos eninformática. Esta situación es aprovechada constantemente por los programadores de virus.
Unix y derivados

En otros sistemas operativos como las distribuciones GNU/Linux, BSD, OpenSolaris, Solaris, Mac OS X y otros basados enUnix las incidencias y ataques son prácticamente inexistentes. Esto se debe principalmente a:
Tradicionalmente los programadores y usuarios de sistemas basados en Unix han considerado la seguridad como una prioridad por lo que hay mayores medidas frente a virus, tales como la necesidad de autenticación por parte del usuario como administrador o root para poder instalar cualquier programa adicional al sistema.
Los directorios o carpetas que contienen los archivos vitales del sistema operativo cuentan con permisos especiales de acceso, por lo que no cualquier usuario o programa puede acceder fácilmente a ellos para modificarlos o borrarlos. Existe una jerarquía de permisos y accesos para los usuarios.
Relacionado al punto anterior, a diferencia de los usuarios de Windows, la mayoría de los usuarios de sistemas basados en Unix no pueden normalmente iniciar sesiones como usuarios "administradores' o por el superusuario root, excepto para instalar o configurar software, dando como resultado que, incluso si un usuario no administrador ejecuta un virus o algún software malicioso, éste no dañaría completamente el sistema operativo ya que Unix limita el entorno de ejecución a un espacio o directorio reservado llamado comúnmente home. Aunque a partir de Windows Vista, se pueden configurar las cuentas de usuario de forma similar.
Estos sistemas, a diferencia de Windows, son usados para tareas más complejas como servidores que por lo general están fuertemente protegidos, razón que los hace menos atractivos para un desarrollo de virus o software malicioso.
En el caso particular de las distribuciones basadas en GNU/Linux y gracias al modelo colaborativo, las licencias libres y debido a que son más populares que otros sistemas Unix, la comunidad aporta constantemente y en un lapso de tiempo muy corto actualizaciones que resuelven bugs y/o agujeros de seguridad que pudieran ser aprovechados por algúnmalware.
Características

Dado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos.

Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada.

Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc.

Hay que tener en cuenta que cada virus plantea una situación diferente.
Métodos de propagación

Existen dos grandes clases de contagio. En la primera, el usuario, en un momento dado, ejecuta o acepta de forma inadvertida la instalación del virus. En la segunda, el programa malicioso actúa replicándose a través de las redes. En este caso se habla de gusanos.

En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una serie de comportamientos anómalos o imprevistos. Dichos comportamientos pueden dar una pista del problema y permitir la recuperación del mismo.

Dentro de las contaminaciones más frecuentes por interacción del usuario están las siguientes:
Mensajes que ejecutan automáticamente programas (como el programa de correo que abre directamente un archivo adjunto).
Ingeniería social, mensajes como ejecute este programa y gane un premio, o, más comúnmente: Haz 2 clics y gana 2 tonos para móvil gratis..
Entrada de información en discos de otros usuarios infectados.
Instalación de software modificado o de dudosa procedencia.

En el sistema Windows puede darse el caso de que el ordenador pueda infectarse sin ningún tipo de intervención del usuario (versiones Windows 2000, XP y Server 2003) por virus como Blaster, Sasser y sus variantes por el simple hecho de estar la máquina conectada a una red o a Internet. Este tipo de virus aprovechan una vulnerabilidad de desbordamiento de buffer y puertos de red para infiltrarse y contagiar el equipo, causar inestabilidad en el sistema, mostrar mensajes de error, reenviarse a otras máquinas mediante la red local o Internet y hasta reiniciar el sistema, entre otros daños. En las últimas versiones de Windows 2000, XP y Server 2003 se ha corregido este problema en su mayoría.


Diferecia entre ipv4 e ipv6

Diferencia entre ipv4 e ipv6
TCP/IPv4 

La versión utilizada en la actualidad del protocolo TCP/IP es la 4, en uso desde 1.981. Esta versión es una versión de 32bits y consta de cuatro grupos binarios de 8bits cada uno (8x4=32), o lo que es lo mismo, cuatro grupos decimales, formado cada uno por tres dígitos. El formato utilizado es del tipo11000000.10101000.00000000.00000001 binario, o lo que es lo mismo, 192.168.0.1 decimal. 

Visto en forma binaria estaríamos hablando de cuatro agrupaciones de ocho dígitos cada una (el 0 y el 1), luego tenemos que 2 elevado a 8 es igual a 256, por lo que en cada grupo tenemos como opción la comprendida entre 0 y 255. 

Esta combinación es capaz de generar aproximadamente 4.000 millones de combinaciones. Esto, que en un principio puede parecer más que suficiente, en realidad no lo es tanto. Se estima que en la actualidad se encuentran en uso aproximadamente unos 2/3 de estas combinaciones Además hay que tener en cuenta que no todas las combinaciones están disponibles para el protocolo IP público (el que utilizamos en nuestra conexión con Internet y que nos facilita nuestro ISP). Hay una serie de combinaciones reservadas para utilizarse como máscaras de subred, una serie de combinaciones que se reservan para los servidores DNS, una serie de combinaciones reservadas para comunicaciones específicas, etc. lo que hace que el número real de IP disponibles no sea tan elevado. 

En principio hay que asegurar una serie de combinaciones diferentes para las conexiones con Internet, por lo que a cada proveedor ISP se le asigna un determinado número de direcciones IP, asignándolas estos a su vez entre sus clientes. Para optimizar este número de conexiones los proveedores ISP recurren al sistema deIP dinámica. Este sistema hace posible que con un número limitado de IP's se atienda a un número bastante superior de usuarios, a condición de que el número de conexiones simultaneas no supere el número de IP's asignadas (por poner un ejemplo, con 1.000 direcciones IP asignadas un proveedor ISP puede dar servicio a 2.000 clientes que se conecten en tandas de 12 horas cada uno). 

Además hay que tener en cuenta que este tipo de conexiones TCP/IP es cada vez más empleado no solo por ordenadores, sino también por dispositivos de otro tipo, tales como, por ejemplo, cámaras IP, comunicaciones de voz del tipo VoIP, teléfonos móviles, PDA, etc., lo que hace que junto al cambio de hábitos en las conexiones (hemos pasado de conexiones por un corto periodo de tiempo cuando conectábamos por RTB a tener conectado el ordenador las 24 horas, o al menos 8 horas diarias) y el incremento en el número de usuarios (que prácticamente se duplica cada año desde 1.988) hace que el número de conexiones disponibles no solo no sea exagerado, sino que no se encuentre lejos de su agotamiento. 

Una de las consecuencias de este sistema es que hace que sea necesario utilizar para conectarse a la red (Internet) un sistema que permita una sola IP por conexión (independientemente de los ordenadores que luego se conecten a través de esta conexión). Este sistema es el denominado NAT (Network Address Translator), y permite mediante un router (o enrutador) tener una red interna (direcciones IP privadas) apuntando a una sola dirección de Internet (IP pública). Este sistema, como es fácil de adivinar, no es el más idóneo, ya que hace que se rompe la doctrina de conexión ''entre extremos'', haciendo que sea un solo equipo de la red interna (en este caso el router) el que en realidad esté conectado con Internet, ya que el resto de equipos se conectan a este, NO a Internet. La importancia de esto la vemos con una mayor facilidad si nos imaginamos una oficina con 20 ordenadores trabajando todos a través de Internet... y dependiendo de un aparatito que cuesta menos de 100 euros y que no es infalible. Si este se estropea nos quedamos con las 20 máquinas desconectadas... y con la oficina bloqueada. 

Por estos motivos se está estudiando desde hace tiempo un protocolo que reemplace al TCP/IP v4. Este nuevo protocolo es el TCP/IP v6, y aunque aun no está muy extendido ya tenemos algunas pruebas de su existencia, entre las que podemos enumerar su implementación total en el nuevo Windows Vista. 


Imágenes de las propiedades de la conexión de red y de TCP/IP v6 en Windows Vista 



TCP/IPv6

El protocolo TCP/IPv6 es un protocolo de 128bits, lo que hace que el algunos cálculos situen el número de conexiones posibles en aproximadamente 34 trillones.

Para hacernos una idea de lo que esto supone, si las posibles conexiones de IPv4 ocuparan 1 milímetro, las posibles conexiones de IPv6 ocuparían aproximadamente 240.000 veces la distancia entre el Sol y la Tierra.

En 1.994 se presentó un primer proyecto para solucionar el problema del posible agotamiento de las posibles direcciones IP existentes, siendo en 1.995 cuando se define este proyecto definitivamente como IPv6 y se establece la primera especificación.

La entrada en servicio de esta nueva versión del protocolo TCP/IP va a significar un gran avance, a la vez que va a tener una amplia serie de consecuencias.

La primera posible consecuencia de este incremento es no es necesario el uso de sistemas NAT, ya que hay direcciones suficientes como para que todas las máquinas se conecten entre sí directamente, volviendo a ser una verdadera red entre extremos.

La segunda consecuencia de este cambio de versión es la de permitir una conexión mucho más eficaz, ya que utilizan una cabecera de paquete diferente, añadiendo a los datos actuales (origen, tamaño, etc.) otros datos tales como etiquetas de contenido, lo que a su vez va a permitir optimizar las trasferencias al poder dar prioridad a tipos determinados de archivos (por ejemplo, dar prioridad a los archivos del tipo multimedia o de voz), haciendo a la vez posible que sea el usuario el que decida estas prioridades, lo que hará posible unas comunicaciones del tipo VoIP o videoconferencias de calidad, sin saltos e interrupciones.

Otra consecuencia es un incremento en la seguridad, ya que será posible establecer niveles de seguridad a nivel de IP, permitiendo una autentificación de las transmisiones entre equipos, lo que asegura la integridad y privacidad de estas. Esto en la práctica significa que enviamos un paquete de datos de un ordenador con una IP concreta a otro con una IP concreta, haciendo este inaccesible a cualquier otro ordenador.

Las direcciones IP se podrán obtener de forma totalmente automáticas, lo que facilitará enormemente la creación de redes, tanto a nivel local como a nivel externo.

La configuración de estas direcciones es bastante más estructurada que la actual, ya que se trata de una serie de 8 grupos de 16bits (de 0 a ffff), separados por :, en los que el valor 0 se puede sustituir por ::. Un ejemplo de una dirección IP en el protocolo TCP/IPv6 sería la siguiente:

2005:205:169:5:175:b4fd:bbad:eded

o bien

2005:205:0:1:175:0:bafd:14

o lo que sería lo mismo

2005:205::1:175::bafd:14 (se puede observar que se han sustituido los grupos con valor 0 por ::).

El proceso de migración de una versión a otra va a ser un proceso lento, ya que entre otras cosas supone una fuerte inversión por parte de los proveedores de ISP, sobre todo si tenemos en cuenta que hay que mantener durante un tiempo una amplia compatibilidad entre ambos protocolos.


En cuanto a su compatibilidad con los diferentes sistemas operativos, como ya hemos visto es soportado de forma nativa por Windows Vista, así como por las últimas versiones de Linux. Tanto Windows XP (desde el SP1) como Windows 2003 Server lo implementan (aunque no aparece en Propiedades de las conexiones de red). Para otras versiones probablemente haya que recurrir a software de terceros.



MODELO OSI
El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones. 



Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.

Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.

El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.

Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.

Este modelo está dividido en siete capas:

Capa física

Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.

Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)

Capa de enlace de datos

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.

Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).

Capa de red

Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.
Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)

El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.

En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).

Capa de sesión

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.

Capa de aplicación

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos yservidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

Modelo TCP/IP
El modelo TCP/IP es un modelo de descripción de protocolos de redcreado en la década de 1970 por DARPA, una agencia del Departamento de Defensa de los Estados Unidos. Evolucionó de ARPANET, el cual fue la primera red de área amplia y predecesora de Internet. EL modelo TCP/IP se denomina a veces como Internet Model, Modelo DoD o Modelo DARPA.


El modelo TCP/IP, describe un conjunto de guías generales de diseño e implementación de protocolos de red específicos para permitir que una computadora pueda comunicarse en una red. TCP/IP provee conectividad de extremo a extremo especificando como los datos deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el destinatario. Existen protocolos para los diferentes tipos de servicios de comunicación entre computadoras.


TCP/IP tiene cuatro capas de abstracción según se define en el RFC 1122. Esta arquitectura de capas a menudo es comparada con el Modelo OSI de siete capas.


EL modelo TCP/IP y los protocolos relacionados son mantenidos por la Internet Engineering Task Force (IETF).




Para conseguir un intercambio fiable de datos entre dos computadoras, se deben llevar a cabo muchos procedimientos separados.


El resultado es que el software de comunicaciones es complejo. Con un modelo en capas o niveles resulta más sencillo agrupar funciones relacionadas e implementar el software de comunicaciones modular.


Las capas están jerarquizadas. Cada capa se construye sobre su predecesora. El número de capas y, en cada una de ellas, sus servicios y funciones son variables con cada tipo de red. Sin embargo, en cualquier red, la misión de cada capa es proveer servicios a las capas superiores haciéndoles transparentes el modo en que esos servicios se llevan a cabo. De esta manera, cada capa debe ocuparse exclusivamente de su nivel inmediatamente inferior, a quien solicita servicios, y del nivel inmediatamente superior, a quien devuelve resultados.
Capa 4 o capa de aplicación: Aplicación, asimilable a las capas 5 (sesión), 6 (presentación) y 7 (aplicación) del modelo OSI. La capa de aplicación debía incluir los detalles de las capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de representación, codificación y control de diálogo.
Capa 3 o capa de transporte: Transporte, asimilable a la capa 4 (transporte) del modelo OSI.
Capa 2 o capa de red: Internet, asimilable a la capa 3 (red) del modelo OSI.
Capa 1 o capa de enlace: Acceso al Medio, asimilable a la capa 1 (física) y 2 (enlace de datos) del modelo OSI.



























Topologia de la red

Topologia de la red
LA Red mas segura es la Estrella es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este.

Red en Bus





Red cuya topología se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.

 

Red en estrella

Una red en estrella es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este. Los dispositivos no están directamente conectados entre sí, además de que no se permite tanto tráfico de información. Dado su transmisión, una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el eco.

Se utiliza sobre todo para redes locales. La mayoría de las redes de área local que tienen un enrutador (router), un conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo central en estas sería el enrutador, el conmutador o el concentrador, por el que pasan todos los paquetes de usuarios.



Red en Mixta

Las topologías mixtas son aquellas en las que se aplica unamezcla entre alguna de las otras topologías : bus, estrella o anillo.Principalmente podemos encontrar dos topologías mixtas: Estrella - Bus y Estrella - Anillo. 








Red en Anillo
Topología de red en la que cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos permiten que los datos se envíen en ambas direcciones (Token passing). Esta configuración crea redundancia (tolerancia a fallos). Evita las colisiones. 








Red en Doble Anillo


Es una de las tres principales topologías. Las estaciones están unidas una con otra formando un círculo por medio de un cable común. Las señales circulan en un solo sentido alrededor del círculo, regenerándose en cada nodo.
Ventajas: los cuellos de botellas son muy pocos frecuentes
Desventajas: al existir un solo canal de comunicación entre las estaciones de la red, si falla el canal o una estación, las restantes quedan incomunicadas. Algunos fabricantes resuelven este problema poniendo un canal alternativo para casos de fallos, si uno de los canales es viable la red está activa, o usando algoritmos para aislar las componentes defectuosas. Es muy compleja su administración, ya que hay que definir una estación para que controle el token.
Existe un mecanismo para la resolución de conflictos en la transmisión de datos:
Token Ring: La estación se conecta al anillo por una unidad de interfaz (RIU), cada RIU es responsable de controlar el paso de los datos por ella, así como de regenerar la transmisión y pasarla a la estación siguiente. Si la dirección de cabecera de una determinada transmisión indica que los datos son para una estación en concreto, la unidad de interfaz los copia y pasa la información a la estación de trabajo conectada a la misma.
Se usa en redes de área local con o sin prioridad, el token pasa de estación en estación en forma cíclica, inicialmente en estado desocupado. Cada estación cuando tiene el token (en este momento la estación controla el anillo), si quiere transmitir cambia su estado a ocupado, agregando los datos atrás y lo pone en la red, caso contrario pasa el token a la estación siguiente. Cuando el token pasa de nuevo por la estación que transmitió, saca los datos, lo pone en desocupado y lo regresa a la red. 


Red en Arbol


Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.
La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean posibles, según las características del árbol.
Los problemas asociados a las topologías anteriores radican en que los datos son recibidos por todas las estaciones sin importar para quien vayan dirigidos. Es entonces necesario dotar a la red de un mecanismo que permita identificar al destinatario de los mensajes, para que estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio de transmisión compartido entre muchas estaciones, pueden producirse interferencia entre las señales cuando dos o más estaciones transmiten al mismo tiempo.





La topología de red mallada es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada, puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.marik== Funcionamiento == Esta topología, a diferencia de otras (como la topología en árbol y la topología en estrella), no requiere de un servidor o nodo central, con lo que se reduce el mantenimiento (un error en un nodo, sea importante o no, no implica la caída de toda la red).
Las redes de malla son auto ruteables. La red puede funcionar, incluso cuando un nodo desaparece o la conexión falla, ya que el resto de los nodos evitan el paso por ese punto. En consecuencia, la red malla, se transforma en una red muy confiable.
Es una opción aplicable a las redes sin hilos (wireless), a las redes cableadas (wired) y a la interacción del software de los nodos.






Diferencia entre LAN y WAN

Diferencia entre LAN y WAN

Una red LAN es un sistema de transmisión de datos, que facilita el compartir los recursos informáticos en un área geográfica relativamente pequeña.
la Red WAN (Wide Area Netowork) es una red de comunicación de datos que tiene una cobertura geográfica grande y utiliza como medio de transmisión el que ofrecen las operadoras de servicios de telefonía.

En las Red WAN (Wide Area Netowork) se pueden establecer las comunicaciones con:
Enlaces punto a punto. Se les conoce como líneas privadas, ya que su trayectoria es permanente y fija.
Conmutación de circuitos: Es un método de conmutación en el que se establece, mantiene y termina un circuito físico dedicado a través de una red de transporte para cada sesión de comunicación.
Conmutación de paquetes: Los dispositivos conectados a la red comparten un solo enlace para transferir los paquetes desde el origen al destino. Las redes Frame relay, ATM y x25 son ejemplo de estas.
Circuitos virtuales WAN: Es un circuito lógico creado para asegurar una comunicación confiable entre dos dispositivos de red.
Hay dos tipos de circuitos virtuales, los virtuales conmutados y los virtuales permanentes. El establecimiento de una comunicación en el primer caso tiene tres fases, la de establecimiento, la de trasferencia y la de des-conexión.



Tableta

Tableta




Una tableta(del inglés: tablet o tablet computer) es un tipo de computadora portátil, de mayor tamaño que un smartphone o una PDA, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o una pluma stylus (pasiva o activa), sin necesidad de teclado físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en determinados modelos, por una mini-trackball integrada en uno de los bordes de la pantalla.


El término puede aplicarse a una variedad de formatos que difieren en la posición de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (slate) y carece de teclado integrado aunque puede conectarse a uno inalámbrico (por ej., Bluetooth) o mediante un cable USB (muchos sistemas operativos reconocen directamente teclados y ratones USB). Otro formato es elportátil convertible, que dispone de un teclado físico que gira sobre una bisagra o se desliza debajo de la pantalla. Un tercer formato, denominado híbrido (como el HP Compaq TC1100), dispone de un teclado físico, pero puede separarse de él para comportarse como una pizarra. Por último los Booklets incluyen dos pantallas, al menos una de ellas táctil, mostrando en ella un teclado virtual.


Los primeros ejemplos del concepto tableta de información se originaron en los siglos 19 y 20,[cita requerida] principalmente como prototipos e ideas conceptuales, de los cuales el más prominente fue el Dynabook de Alan Kay en 1972.[cita requerida] Los primeros dispositivos electrónicos portátiles basados ​​en el concepto aparecieron a finales del siglo 20. Durante la década del 2000 Microsoft lanzó el Microsoft Tablet PC que tuvo relativamente poco éxito aunque logró crear un nicho de mercado en hospitales y negocios móviles (por ej., fuerzas de venta). Finalmente en 2010 Apple Inc. presenta el iPad, basado en su exitoso iPhone, alcanzando el éxito comercial al proveer por fin de la interfaz adecuada.


Hoy en día las tabletas utilizan mayoritariamente un sistema operativo diseñado con la movilidad en mente (iOS, Android y el minoritario Symbian provienen del campo smartphone, donde se reparten el mercado; MeeGo y HP webOS provienen del mundo PDA) dejando de lado los de Microsoft, pensados más con el ordenador de escritorio en mente.




Utilidades


Lectura de libros electrónicos
Lectura fuera de línea de páginas web (ej. utilizando el navegador Opera)
Lectura de cómics
Consulta y edición de documentos ofimáticos
Navegación web (mediante Wi-Fi, USB o 3G Interno)
Llamadas telefónicas, si son 3G, sustituyendo así al teléfono móvil; se suele utilizar un manos libre bluetooth
GPS
Reproducción de música
Visualización de vídeos y películas
Cámara fotográfica y de video HD
Videoconferencia
Juegos


La tableta funciona como una computadora, solo que más orientado a la multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que pueda leerse una memoria o disco duro externo USB, debe contar con USB OTG


Dependiendo del sistema operativo que implementen y su configuración, al conectarse por USB a un ordenador, se pueden presentar como dispositivos de almacenamiento, mostrando sólo la posible tarjeta de memoria conectada, la memoria flash interna e incluso la flash ROM. Por ejemplo en Android el usuario debe de activar el modo de dispositivo de almacenamiento, apareciendo mientras como una ranura sin tarjeta.


Algunas tabletas presentan conectores minijack de 3,5, VGA o HDMI para poder conectarse a un televisor o a un monitor de computadora.
Comparación con computadores portátiles


Las ventajas y desventajas de las Tabletas dependen en gran medida de opiniones subjetivas. Lo que atrae a un usuario puede ser exactamente lo que decepciona a otro. Las siguientes son las opiniones habituales de comparación entre las Tabletas y los computadores portátiles:


Ventajas
Su facilidad de uso en ambientes no favorables a un teclado y un ratón como en la cama, de pie, o el manejo con una sola mano.
Su peso ligero, los modelos de menor potencia pueden funcionar de manera similar a los dispositivos de lectura tales como el Kindle de Amazon.
El entorno táctil hace que en ciertos contextos -como en la manipulación de imágenes, música o juegos- el trabajo sea más fácil que con el uso de un teclado y un ratón.
Facilita la realización de dibujos digitales y edición de imágenes pues resulta más preciso e intuitivo que pintar o dibujar con el ratón.
Facilita y agiliza la posibilidad de agregar signos matemáticos, diagramas y símbolos.
Permite -con el software adecuado- la interacción con diferentes teclados sin importar su ubicación.
Para algunos usuarios resulta más interactivo y agradable usar un lápiz, una pluma o el dedo para apuntar y pulsar sobre la pantalla, en lugar de utilizar un ratón o un touchpad.
La duración de la batería es mucho mayor a la de una computadora portátil.


Desventajas
Precio superior: Debido a la complejidad de la pantalla (mecanismo de rotación y la tecnología táctil), una Tableta será más cara que un portátil con especificaciones de hardware similar. Por otro lado, un portátil convertible en Tablet puede costar mucho más que un computador portátil convencional, a pesar de que se ha previsto un descenso en el precio de los convertibles.
Velocidad de interacción: la escritura a mano sobre la pantalla, o escribir en un teclado virtual, puede ser significativamente más lento que la velocidad de escritura en un teclado convencional, que puede ser tan alto como 50 a 150 palabras por minuto. Sin embargo, tecnologías como SlideIT, Swype y otras similares se ofrecen en un esfuerzo para reducir esta brecha. Algunos dispositivos también soportan teclados externos (por ejemplo: el IPad puede aceptar teclados USB y Bluetooth a través del Kit de conexión de cámara)
Comodidad (ergonomía): una Tableta no ofrece espacio para el descanso de la muñeca. Además, el usuario tendrá que mover su brazo constantemente mientras escribe.
Menor capacidad de video: la mayoría de las Tabletas están equipadas con procesadores gráficos incorporados en lugar de tarjetas de video. En julio de 2010, la única Tableta con tarjeta de video era la HP TouchSmart tm2t, para la que puede adquirirse la ATI Mobility Radeon HD5450 como una adición opcional.
Los negocios orientados a la venta de Tabletas personales han experimentado lentitud en sus ventas desde el 2001 hasta la fecha.7
Riesgos en la pantalla: las pantallas de las Tabletas se manipulan más que las de los portátiles convencionales, sin embargo, muchas están fabricadas de manera similar. Además, puesto que las pantallas también sirven como dispositivos de interacción, corren un mayor riesgo de daños debido a los golpes y al mal uso.
Riesgo en la bisagra: la bisagra de un portátil convertible en Tableta usualmente necesita girar sobre dos ejes, a diferencia de la pantalla de un portátil normal, lo cual aumenta las posibilidades de fallas mecánicas o eléctricas (cables de transmisión y de vídeo, antenas WiFi integradas, etc)

Tabletas


Samsung Galaxy Tab.
AOC Breeze
Apple iPad
Samsung Galaxy Tab
Motorola Xoom
HP TouchPad
bq readers Verne Plus
HTC Flyer
Huawei S7
ZTE V9
Eken : Eken M001, Eken M002, Eken M003 (la primera tableta llamada aPad oiPed), Eken M005, Eken M006, Eken M008, Eken M009, Eken M012, Eken M013
BlackBerry PlayBook
Sony Tablet
LG Optimus Pad
Dell Streak
Lenovo ThinkPad Tablet
Asus Eee Pad Transformer
Toshiba Thrive, Toshiba Excite 10 LE
Acer Iconia
ViewSonic G Tablet
Amazon Kindle Fire
Olivetti Olipad
Tebros
SmartQ T7-3G
T-Mobile G-Slate
Archos Tablet

Por lo general incorporan una pantalla de 7 a 10 pulgadas

Sistemas operativos
Las Tabletas, al igual que los computadores tradicionales, pueden funcionar con diferentes sistemas operativos (SO). Estos se dividen en dos clases:

- Sistemas Operativos basados en el escritorio de un computador tradicional y

- Sistemas Operativos post-PC (similares a los SO de los teléfonos móviles inteligentes).

Para la primera clase los SO más populares son el Windows de Microsoft y una variedad de sistemas de Linux. HP está desarrollando tabletas orientadas a las necesidades empresariales basadas en Windows y tabletas orientadas al consumidor personal basadas en webOS.
Para la segunda clase, los SO más populares incluyen el iOS de Apple y el Android de Google. Muchos fabricantes también están probando productos con Windows CE, con Chrome OS de Google y con otros varios.


La Siguiente es una lista de algunos sistemas operativos disponibles para Tabletas:
Android
iOS
webOS
Chrome OS
BlackBerry Tablet OS
Windows CE
Windows Phone
Windows 8

Android

Android





Android es un sistema operativo móvil basado en Linux, que junto con aplicaciones middleware, está enfocado para ser utilizado en dispositivos móviles como teléfonos inteligentes, tablets, Google TV y otros dispositivos. Es desarrollado por la Open Handset Alliance, la cual es liderada por Google.


Android ofrece una completa experiencia de internet, rápida e intuitiva. Puedes buscar rápidamente palabras, acercar y alejar automáticamente, cortar y pegar y compartir páginas web con tus contactos.


Android brinda un juego de servicios de Google, incluyendo Search, Maps, YouTube, Gmail, Google Talk y más.




Google Search by Voice y Google Maps Navigation usan tecnología avanzada de reconocimiento de voz que te permite buscar por internet, llamar a un contacto o localizar un restaurante mientras estás en movimiento.


Accede a miles de aplicaciones y juegos con potentes capacidades para tareas múltiples. Android también cuenta con desarrollo de aplicaciones de código abierto, lo cual ha dado lugar a la creación de más de 20,000 aplicaciones, incluyendo redes sociales, entretenimiento, juegos, comunicaciones, deportes y más.


Agrega accesos directos para obtener un fácil acceso a acciones comunes, por ejemplo, encontrar direcciones o enviar un correo electrónico. Los widgets ofrecen acceso a aplicaciones y configuraciones directamente desde la pantalla principal. También puedes crear carpetas que ofrecen una manera dinámica de organizar información o agrupar contactos.