sábado, 1 de septiembre de 2007

REFRIGERACION


Métodos para enfriar los componentes de un computadorVariadas técnicas son usadas en la actualidad para refrigerar componentes electrónicos, como lo son los microprocesadores, que fácilmente pueden alcanzar temperaturas tan altas que provoquen daño permanente si no son mantenidos a una temperatura adecuada de forma apropiada.

Refrigeración por Aire


La refrigeración pasiva es probablemente el método más antiguo y común para enfriar no sólo componentes electrónicos sino cualquier cosa. Así como dicen las abuelitas: "tomar el fresco", la idea es que ocurra intercambio de calor entre el aire a temperatura ambiente y el elemento a enfriar, a temperatura mayor. El sistema es tan común que no es en modo alguno invención del hombre y la misma naturaleza lo emplea profusamente: miren por ejemplo a los elefantes que usan sus enormes orejas para mantenerse frescos, y no porque las usen de abanico sino porque éstas están llenas de capilares y el aire fresco enfría la sangre que por ellos circula.
El ejemplo de los elefantes se aplica, entonces, a las técnicas para enfriar componentes electrónicos, y la idea es básicamente la misma: incrementar la superficie de contacto con el aire para maximizar el calor que éste es capaz de retirar. Justamente con el objeto de maximizar la superficie de contacto, los disipadores o en inglés heatsinks consisten en cientos de aletas delgadas. Mientras más aletas, más disipación. Mientras más delgadas, mejor todavía.


Refrigeración Pasiva por Aire


Las principales ventajas de la disipación pasiva son su inherente simplicidad (pues se trata básicamente de un gran pedazo de metal), su durabilidad (pues carece de piezas móviles) y su bajo costo. Además de lo anterior, no producen ruido. La mayor desventaja de la disipación pasiva es su habilidad limitada para dispersar grandes cantidades de calor rápidamente. Los disipadores (heatsinks) modernos son incapaces de refrigerar efectivamente CPUs de gama alta, sin mencionar GPUs de la misma categoría sin ayuda de un ventilador.


Refrigeración Activa por Aire


La refrigeración activa por aire es, en palabras sencillas, tomar un sistema pasivo y adicionar un elemento que acelere el flujo de aire a través de las aletas del heatsink. Este elemento es usualmente un ventilador aunque se han visto variantes en las que se utiliza una especie de turbina.

En la refrigeración pasiva tiende a suceder que el aire que rodea al disipador se calienta, y su capacidad de evacuar calor del disipador disminuye. Aunque por convección natural este aire caliente se mueve, es mucho más eficiente incorporar un mecanismo para forzar un flujo de aire fresco a través de las aletas del disipador, y es exactamente lo que se logra con la refrigeración activa.
Aunque la refrigeración activa por aire no es mucho más cara que la pasiva, la solución tiene desventajas significativas. Por ejemplo, al tener partes móviles es susceptible de averiarse, pudiendo ocasionar daños irreparables en el sistema si es que esta avería no se detecta a tiempo (en otras palabras, si un sistema pensado para ser enfriado activamente queda en estado pasivo por mucho tiempo). En segundo lugar, aunque este aspecto ha mejorado mucho todos los ventiladores hacen ruido. Algunos son más silenciosos que otros, pero siempre serán más ruidosos que los cero decibeles que produce una solución pasiva.


Refrigeración líquida (más conocida como Watercooling)


Un método más complejo y menos común es la refrigeración por agua. El agua tiene un calor específico más alto y una mejor conductividad térmica que el aire, gracias a lo cual puede transferir calor más eficientemente y a mayores distancias que el gas. Bombeando agua alrededor de un procesador es posible remover grandes cantidades de calor de éste en poco tiempo, para luego ser disipado por un radiador ubicado en algún lugar dentro (o fuera) del computador. La principal ventaja de la refrigeración líquida, es su habilidad para enfriar incluso los componentes más calientes de un computador.

Todo lo bueno del watercooling tiene, sin embargo, un precio; la refrigeración por agua es cara, compleja e incluso peligrosa en manos sin experiencia (Puesto que el agua y los componentes electrónicos no son buena pareja). Aunque usualmente menos ruidosos que los basados en refrigeración por aire, los sistemas de refrigeración por agua tienen partes móviles y en consecuencia se sabe eventualmente pueden sufrir problemas de confiabilidad. Sin embargo, una avería en un sistema de Watercooling (por ejemplo, si deja de funcionar la bomba) no es tan grave como en el caso de la refrigeración por aire, puesto que la inercia térmica del fluído es bastante alta e incluso encontrándose estático no será fácil para el CPU calentarlo a niveles peligrosos.


Refrigeración Líquida por Inmersión


Una variación extraña de este mecanismo de refrigeración es la inmersión líquida, en la que un computador es totalmente sumergido en un líquido de conductividad eléctrica muy baja, como el aceite mineral. El computador se mantiene enfriado por el intercambio de calor entre sus partes, el líquido refrigerante y el aire del ambiente. Este método no es práctico para la mayoría de los usuarios por razones obvias.

Pese a que este método tiene un enfoque bastante simple (llene un acuario de aceite mineral y luego ponga su PC adentro) también tiene sus desventajas. Para empezar, debe ser bastante desagradable el intercambio de piezas para upgrade.


Refrigeración por Metal Líquido


Aunque su principio es completamente distinto al watercooling, de alguna manera este sistema está emparentado. Se trata de un invento mostrado por nanoCoolers, compañía basada en Austin, Texas, que hace algunos años desarrolló un sistema de enfriamiento basado en un metal líquido con una conductividad térmica mayor que la del agua, constituido principalmente por Galio e Indio.

A diferencia del agua, este compuesto puede ser bombeado electromagnéticamente, eliminando la necesidad de una bomba mecánica. A pesar de su naturaleza innovadora, el metal líquido de nanoCoolers nunca alcanzó una etapa comercial.


Refrigeración Termoeléctrica (TEC)


En 1834 un frances llamado Juan Peltier (no es chiste, la traducción al español de Jean Peltier), descubrio que aplicando una diferencia electrica en 2 metales o semiconductores (de tipo p y n) unidas entre sí, se generaba una diferencia de temperaturas entre las uniones de estos. La figura de abajo muestra que las uniones p-n tienden a calentarse y las n-p a enfriarse.

El concepto rudimentario de Peltier fué paulatinamente perfecciónado para que fuera un solo bloque con las uniones semiconductoras, (que generalmente son en base a Seleniuro de Antimonio y Telururo de bismuto) conectadas por pistas de cobre y dispuestas de tal manera , que transportara el calor desde una de sus caras hacia la otra, haciendo del mecanimo una "bomba de calor" ya que es capaz de extraer el calor de una determinada superficie y llevarlo hacia su otra cara para disiparlo.
Una de las tantas gracias de estos sistemas de refrigeración que se ocupan en todo ámbito (generalmente industrial), es que son bastante versátiles, basta con invertir la polaridad para invertir el efecto (cambiar el lado que se calienta por el frío y viceversa), la potencia con que enfría es fácilmente modificable dependiendo del voltaje que se le aplique y es bastante amable con el medio ambiente ya que no necesita de gases nocivos como los usados en los refrigeradores industriales para realizar su labor.
El uso de refrigeración termoeléctrica por lo general se circunscribe al ámbito industrial, pero tanto los fanáticos como algunos fabricantes han desarrollado productos que incorporan el elemento Peltier como método para enfriar el procesador de un PC. Estas soluciones, que de por sí involucran un fuerte aumento del consumo eléctrico (toda vez que un peltier es bastante demandante de potencia) no pueden operar por sí solas, pues se hace necesario un sistema que sea capaz de retirar calor de la cara caliente del Peltier.


Refrigeración por Heatpipes


Un heatpipe es una máquina térmica que funciona mediante un fenómeno llamado "convección natural". Este fenómeno, derivado de la expansión volumétrica de los fluídos, causa que al calentarse los fluídos tiendan a hacerse menos densos, y viceversa. En un mismo recipiente, el calentamiento de la base producirá la subida del fluído caliente de abajo y la bajada del fluído aún frío de la parte superior, produciéndose una circulación.

El sistema de heatpipes que se utiliza en los coolers de CPU es un ciclo cerrado en donde un fluído similar al que recorre nuestros refrigeradores se calienta en la base, en contacto con el CPU, se evapora, sube por una tubería hasta el disipador, se condensa y baja como líquido a la base nuevamente.
El transporte de calor que se logra mediante el uso de heatpipes es muy superior al que alcanza un disipador de metal tradicional, por delgadas o numerosas que sean sus aletas. Sin embargo, sería poco ambicioso dejar que los heatpipes hicieran todo el trabajo, por lo que los productos comerciales que han incorporado el elemento heatpipe complementan su alta capacidad de transporte de calor con voluminosos panales de aluminio o cobre (en buenas cuentas, un heatsink) y ventiladores que muefen bastante caudal de aire.


Cambio de Fase


Los sistemas de enfriamiento por cambio de fase se basan en la misma máquina térmica que opera en todo refrigerador. Aunque los sistemas han cambiado mucho desde los primeros refrigeradores -empezando por el abandono de los gases que eran dañinos para el medio ambiente- el principio es el mismo: utilizar a nuestro favor la ley de los gases perfectos y las propiedades termodinámicas de un gas para instigarlo a tomar o ceder calor del o al medio ambiente en distintos puntos del ciclo.


Cambio de fase por vibración


El Vibration Induced Droplet Atomization (VIDA) es un sistema experimental que probablemente nunca se utilizará comercialmente pero por lo ingenioso que resulta vale la pena mencionarlo. En rigor, dudé mucho si ubicarlo como un subconjunto de los sistemas de cambio de fase porque el principio de su funcionamiento no se basa en el ciclo térmico que inventó Carnot, pero de todos modos el fenómeno físico mediante el cual se retira calor es en buenas cuentas un cambio de fase.
El VIDA opera de la siguiente manera: atomizando un fluido que puede ser simplemente agua, y sometiéndolo a una intensa vibración, se logra que éste pase al estado gaseoso a temperatura ambiente. Al evaporarse, el agua (o el líquido que se utilice) toma una gran cantidad de calor del medio circundante. En otras palabras, una gótula de agua lo suficientemente pequeña y convenientemente zangoloteada se convertirá en vapor espontáneamente, y si logras que ello ocurra en contacto con la superficie deseada, el agua retirará de ella una gran cantidad de calor.



Criogenia


Incluso más raro que la refrigeración por cambio de fase es aquella basada en la criogenia, que utiliza nitrógeno líquido o hielo seco (dióxido de carbono sólido). Estos materiales son usados a temperaturas extremadamente bajas (el nitrógeno líquido ebulle a los -196ºC y el hielo seco lo hace a -78ºC) directamente sobre el procesador para mantenerlo frío. Sin embargo, después que el líquido refrigerante se haya evaporado por completo debe ser reemplazado. Daño al procesador a lo largo del tiempo producto de los frecuentes cambios de temperatura es uno de los motivos por los que la criogenia sólo es utilizada en casos extremos de overclocking y sólo por cortos periodos de tiempo.



VENTAJAS Y DESVANTAJAS


Claramente cada método de refrigeración tiene ventajas y desventajas. Algunos son caros y bulliciosos, otros no lo suficientemente poderosos, algunos requieren de instalaciones complejas e incluso existen aquellos que pueden dañar el procesador. Buscando crear un disipador (cooler) barato, silencioso y altamente confiable capaz de disipar efectivamente el calor de incluso los procesadores más demandantes de gama alta, Tecnologías Avanzadas Kronos (Kronos Advanced Technologies) dominó un principio físico antiguo conocido como el efecto de descarga corona.

TROYANO


Un troyano informático, caballo de Troya o Trojan Horse está tan lleno de artimañas como lo estaba el mitológico caballo de Troya del que se ha tomado el nombre.
A primera vista el troyano parece ser un programa útil, pero en realidad hará daño una vez instalado o ejecutado en tu ordenador. Los que reciben un troyano normalmente son engañados a abrirlos porque creen que han recibido un programa legítimo o archivos de procedencia segura.
Cuando se activa un troyano en tu ordenador, los resultados pueden variar. Algunos troyanos se diseñan para ser más molestos que malévolos (como cambiar tu escritorio agregando iconos de escritorio activos tontos), mientras que otros pueden causar daño serio, suprimiendo archivos y destruyendo información de tu sistema.
También se conoce a los troyanos por crear puertas traseras o backdoors en tu ordenador permitiendo el acceso de usuarios malévolo a tu sistema, accediendo a tu información confidencial o personal.
A diferencia de los virus y gusanos, los troyanos ni se auto replican ni se reproducen infectando otros archivos.

GUSANO


Un worm o gusano informático es similar a un virus por su diseño, y es considerado una subclase de virus. Los gusanos informáticos se propagan de ordenador a ordenador, pero a diferencia de un virus, tiene la capacidad a propagarse sin la ayuda de una persona. Un gusano informático se aprovecha de un archivo o de características de transporte de tu sistema, para viajar.
Lo más peligroso de los worms o gusanos informáticos es su capacidad para replicarse en tu sistema, por lo que tu ordenador podría enviar cientos o miles de copias de sí mismo, creando un efecto devastador enorme. Un ejemplo sería el envío de una copia de sí mismo a cada uno de los contactos de tu libreta de direcciones de tu programa de email. Entonces, el gusano se replica y se envía a cada uno de los contactos de la libreta de direcciones de cada uno de los receptores, y así continuamente.
Debido a la naturaleza de copiado de un gusano informático y de su capacidad de viajar a través de redes el resultado final, en la mayoría de los casos, es que el gusano consume demasiada memoria de sistema (o anchura de banda de la red), haciendo que los servidores y los ordenadores individuales dejen de responder.
En ataques de gusano recientes, como el del gusano Blaster Worm, el gusano está diseñado para hacer un túnel en tu sistema y permitir que usuarios malévolos controlen remotamente tu ordenador.

VIRUS

Los virus informáticos son programas diseñados expresamente para interferir en el funcionamiento de una computadora, registrar, dañar o eliminar datos, o bien para propagarse a otras computadoras y por Internet, a menudo con el propósito de hacer más lentas las operaciones y provocar otros problemas en los procesos.
Al igual que hay virus humanos con niveles de gravedad muy distintos (desde un resfriado leve hasta el virus Ébola), los efectos de los virus informáticos pueden ser desde ligeramente molestos hasta auténticamente devastadores. Además, cada día se presentan nuevas variantes. Por suerte, con precaución y algunos conocimientos, es menos probable convertirse en víctima de los virus y se puede reducir su impacto.

sábado, 25 de agosto de 2007

TECNOLOGIA WI-FI


WI-FI

Es un conjunto de estándares para redes inalámbricas basados en las especificaciones IEEE 802.111. (protocolo) Creado para ser utilizado en redes locales inalambricas, es frecuente que en la actualidad también se utilice para acceder a Internet.

Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.

Historia
El problema principal que pretende resolver la normalización es la compatibilidad. No obstante existen distintos estándares que definen distintos tipos de redes inalámbricas. Esta variedad produce confusión en el mercado y descoordinación en los fabricantes. Para resolver este problema, los principales vendedores de soluciones inalámbricas (3com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies) crearon en 1999 una asociación conocida como WECA (Wireless Ethernet Compability Aliance, Alianza de Compatibilidad Ethernet Inalámbrica) . El objetivo de esta asociación fue crear una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurase la compatibilidad de equipos.
De esta forma en abril de 2000 WECA certifica la interoperatibilidad de equipos según la norma IEEE 802.11b bajo la marca Wi-Fi (Wíreless Fidelity, Fidelidad Inalámbrica). Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tenga el sello Wi-Fi pueden trabajar juntos sin problemas independientemente del fabricante de cada uno de ellos..
En el año 2002 eran casi 150 miembros de la asociación WECA. Como la norma 802.11b ofrece una velocidad máxima de transferencia de 11 Mbps ya existen estándares que permiten velocidades superiores, WECA no se ha querido quedar atrás. Por ese motivo, WECA anunció que empezaría a certificar también los equipos IEEE 802.11a de la banda de 5 Ghz mediante la marca Wi-Fi5.
La norma IEEE.802.11 fue diseñada para sustituir a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet, es en la forma como los ordenadores y terminales en general acceden a la red; el resto es idéntico. Por tanto una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales de cable 802.3 (Ethernet).

Ventajas y desventajas
Una de las desventajas que tiene el sistema Wi-Fi es la pérdida de velocidad en relación a la misma conexión utilizando cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella, las claves de tipo WEP son relativamente fáciles de conseguir para cualquier persona con un conocimiento medio de informática. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad.
Los dispositivos Wi-Fi ofrecen gran comodidad en relación a la movilidad que ofrece esta tecnología, sobre los contras que tiene Wi-Fi es la capacidad de terceras personas para conectarse a redes ajenas si la red no está bien configurada y la falta de seguridad que esto trae consigo.
Cabe aclarar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.