miércoles, 28 de octubre de 2015

USB 3.0

Definición

USB 3.0 tiene una velocidad de transmisión de hasta 5 Gbit/s, que es 10 veces más rápido que USB 2.0 (480 Mbit/s). USB 3.0 reduce significativamente el tiempo requerido para la transmisión de datos, reduce el consumo de energía y es compatible con USB 2.0. El Grupo Promotor de USB 3.0 anunció el 17 de noviembre de 2008, que las especificaciones de la versión 3.0 se habían terminado e hicieron la transición al Foro de implementadores de USB (USB-IF), la entidad gestora de las especificaciones de USB.4 Este movimiento abre efectivamente la especificación para los desarrolladores de hardware para su aplicación en futuros productos.



Patillage



Una imagen vale más que mil palabras:






Ancho 11.5 mm (conector A), 8.45 mm (conector B)
Alto 4.5 mm (conector A), 7.78 mm (conector B, antes de v3.0)
Los cables de Data+ y Data- van trenzados entre si para evitar pérdidas de información.




Tipos de conectores:

Tensiones (V):


 
Voltaje maximo: 5 voltios

Corriente maxima: Hasta 1000 mA (depende de la versión)

jueves, 22 de octubre de 2015

Factores de forma poco usados

Baby AT

Baby AT es el formato de placa base que predominó en el mercado de las computadoras personales desde la serie de procesadores Intel 80286 hasta la introducción de los Pentium. Es una variante del factor de forma AT, aunque más pequeña (de ahí baby (bebé en inglés) AT). Define un tamaño para la placa base de 220 X 330 milímetros.

Fue introducida en el mercado en 1985 por IBM, y al ser esta variante más pequeña y barata que AT, pronto todos los fabricantes cambiaron a ella y se mantuvo como estandar en las computadoras personales hasta que fue reemplazado por el factor de forma ATX a partir de 1995. 


Una característica importante de este factor de forma es que las placas base construidas según este diseño fueron las primeras en incluir conectores para distintos puertos (paralelo, serial, etc).





 BTX

Para otros usos de este término, véase el anime B't X.


El estándar BTX (Balanced Technology Extended) fue creado por Intel, como evolución del ATX en 2004 para intentar solventar los problemas de refrigeración que tenían algunos procesadores. El formato BTX es prácticamente incompatible con el ATX, salvo en la fuente de alimentación (es posible usar una fuente ATX en una placa BTX). Los motivos del cambio a BTX son los siguientes:
   Las CPUs y las tarjetas gráficas consumen cada vez más y más potencia, y esto resulta en una mayor disipación térmica.
   En cuestión de tamaños, hay tres tipos: picoBTX, microBTX y regularBTX, con los siguientes tamaños máximos:
     picoBTX: 20.3 x 26.7 cm, admite uno o dos slots de expansión y tiene cuatro agujeros para tornillos. Las cajas picoBTX probablemente tendrán una bahía de 3'5" y otra de 5'25" únicamente.
     microBTX: 26.4 x 26.7 cm, el cual se espera que sea el más popular de los tres, admite hasta cuatro slots y tiene siete agujeros. Probablemente sus cajas dispongan de una bahía de 3'5" y dos de 5'25".
     regularBTX: 32.5 x 26.7 cm, admitirá hasta 7 slots, y necesitará 10 tornillos de sujeción. Sus cajas serán muy similares a las actuales semitorres ATX, con tres o más bahías de 3'5" y también tres o más de 5'25". 




La gran mayoría de los sistemas BTX (Balanced Technology Extended) emplearán PCI Express para el sistema gráfico.



Pico-ITX

Pico-ITX es un factor de forma de placa base anunciada por VIA Technologies en enero de 2007 y más tarde en el mismo año, expuesta en el CeBIT.

La Pico-ITX tiene un tamaño de 10 x 7,2 cm, que es la mitad del área de la Nano-ITX. El procesador puede ser un VIA C7 o un VIA Eden V4 que utiliza la tecnología de VIA NanoBGA2 para velocidades de hasta 1,5 GHz, con 128 KiB L1 y caché L2. Utiliza DDR2 400/533 SO-DIMM de memoria, con soporte para hasta 1 GiB. De vídeo se realiza a través de AGP VIA UniChrome Pro II con GPU integrada en MPEG-2, 4, y la aceleración de decodificación WMV9. La BIOS es de 4 u 8 Mbit Award. Este tipo de ordenadores son la solución perfecta para situar un pequeño servidor en nuestra casa en el que situar una serie de carpetas públicas para posteriormente conectarse desde otro ordenador ajeno a la red local, ya sean ficheros multimedia o incluso como un ftp casero. 


Este tipo de placas Pico-ITX tienen un abanico de posibilidades muy amplio.




Nano ATX


El Nano-ITX es un factor de forma de tarjeta base de computador propuesto primero por VIA Technologies de Taiwán en 2004, implementado en algún momento a finales de 2005. Las tarjetas Nano-ITX miden 12cm x 12 cm, y están completamente integradas, son tarjetas madre que consumen muy poca energía con muchas aplicaciones, pero dirigidas a dispositivos de entretenimiento digital como PVRs, Set-top boxes, media center y PC's para coche, PC's LCD y dispositivos ultraportatiles.

Hasta ahora hay dos líneas de productos de la tarjeta madre Nano-ITX, VIA EPIA N y VIA EPIA NL. Ambas tarjetas tienen actualmente 3 velocidades de procesador: 533MHz, 800MHz y 1GHz.





Mobile-ITX






La compañía taiwanesa VIA Technologies ha presentado una nueva plataforma que resalta por su tamaño diminuto, nada menos que un 50 por ciento más pequeña que el factor de forma Pico-ITX. La nueva plataforma denominada Mobile-ITX mide 6 por 6 centímetros. Sistemas embebidos destinados generalmente a sectores industriales como el sanitario o el militar.

Mobile-ITX emplea un diseño modular que incluye CPU, chipset, memoria y módulo E/S con soporte para pantallas CRT, DVP y TTL; HD Audio, IDE, USB 2.0, PCI Express, SMBus, GPIO, LPC, SDIO y PS2.

El consumo será como máximo de 5 Watios.

miércoles, 21 de octubre de 2015

Testear la fuente de alimentación de una placa base

Para realizar la comprobación del funcionamiento de encendido de la torre de un ordenador lo que haremos será seguir una serie de pasos sencillos:

  En primer lugar se debe apagar el ordenaror y abrir la tapa metálica desatornillando lor tornillos traseros de la torre.

  Una vez abierta podemos obserbar los distintos buses de salida de la fuente de alimentación, la cual se encuentra en la parte superior. De estos cables debemos distinguir el cable de PinOut que es el cable de alimentación principar a la placa base.
Este posee una serie de cables que se conecta en la placa base mediante un puerto de 20 pines, uno de ellos verde y es el que debemos identificar como el PS_ON .




  En este caso no necesitaremos realizar el puente entre el PS_ON y el COM dado que no queremos comprobar el funcionamiento de la fuente, sino el funcionamiento del botón de encentido que se encuentra en la parte exterior de la torre.
  Para ello debemos hallar el puerto de unión entre la placa base y dicho botón, ek cual se encuentra también incluido en la placa base:



  Una vez encontrado el puerto, este tiene dos pines (en este caso es de color naranja y blanco). pero para poder identificar el que viaja desde el cable verde del PinOut hasta el botón de arranque usaremos el polímetro en modo "continuidad".  
  El polímetro nos indicará una impedancia cerca de los 30 Ohmios.
  Si la resistencia es muy grande o infinita quiere decir que el bus de unión está dañado o que es el otro pin de conexión del puerto de arranque. 


Recorrido que hace el bus de uníon en la placa base de forma aproximada





  Para finalizar, como ya hemos comprobado el funcionamiento del botón, procederemos a la puesta en prueba de este volviendo a conectar la fuente e intentando encender el ordenador.








Zócalos de la CPU


lunes, 19 de octubre de 2015

Turbo boost

Para Intel:

Intel Turbo Boost es una característica que está incorporada en procesadores Intel derivados de la arquitectura Nehalem, (Core i), desde los modelos Core i5 600 en adelante.

Esta función hace que el procesador sea capaz de incrementar su frecuencia de funcionamiento, de forma automática, en determinadas circunstancias.


Factores de activación 

 
 Cantidad de núcleos activos.
 Consumo estimado de corriente.
 Consumo estimado de energía.
 Temperatura del procesador. Esto es importante, ya que el aumento de la    temperatura puede quemar la CPU.




 Para AMD


La tecnología Turbo Core de AMD se ajusta dinámicamente para ofrecerte un mayor rendimiento cuando el sistema operativo requiera el más alto rendimiento del procesador. Si un núcleo funciona por debajo del límite máximo y tu carga de trabajo requiere un rendimiento adicional, la frecuencia del procesador aumentará dinámicamente hasta alcanzar el límite superior de la frecuencia. A medida que se reduce tu carga de trabajo, el núcleo vuelve a la frecuencia normal. Esto te ofrece un rendimiento optimizado de la aplicación dentro de los límites de potencia y temperatura de tu APU.

la tecnología Turbo Core de AMD no requiere elementos adicionales; muchas PC con APU de AMD vienen totalmente equipadas con esta tecnología.



martes, 13 de octubre de 2015

Comparativa de Procesadores


Intel M


Intel presenta Core M, sus primeros chips Broadwell.

Intel Core M son sus primeros chips de 14 nanómetros, el tick que llevábamos esperando unos cuantos meses. Su principal valor es ser más pequeños y eficientes, lo cual permitirá nuevos formatos.

Intel afirma que Core M son físicamente más pequeños y mucho más eficientes, un 50 y 20% respectivamente frente a Core i5 Haswell. 


Doble Nucleo e Hyper Treading

Procesador multinúcleo
 
Un procesador multinúcleo es aquel que combina dos o más microprocesadores independientes en un solo paquete, a menudo un solo circuito integrado. Un dispositivo de doble núcleo contiene solamente dos microprocesadores independientes.
Multiprocesamiento es un Procesamiento simultáneo con dos o más procesadores en un computador. Estos procesadores se unen con un canal de alta velocidad y comparten la carga de trabajo general entre ellos. En caso de que uno falle el otro se hace cargo.


Existe varios tipos de microprocesadores, desde los que son mononucleo hasta los que disponen de cuatro nucleos intregrados. Cada uno dispone se su propia CPU, ALU, registros propios, y dos niveles independientes de memoria caché. También existe un tercer nivel de memoria cachés común a todos los núcleos que es la que posee el tamaño más grande del resto.







Tecnología Hyper Threading 



Ésta tecnología consiste en simular dos procesadores lógicos dentro de un único procesador físico. El resultado es una mejoría en el rendimiento del procesador, puesto que al simular dos procesadores se pueden aprovechar mejor las unidades de cálculo manteniéndolas ocupadas durante un porcentaje mayor de tiempo. Esto conlleva una mejora en la velocidad de las aplicaciones que según Intel es aproximadamente de un 60%.










martes, 6 de octubre de 2015

Distribuciones de Linux




Entre las distribuciones Linux más populares se incluyen:
 

Arch Linux, una distribución basada en el principio KISS, con un sistema de desarrollo continuo entre cada versión (no es necesario volver a instalar todo el sistema para actualizarlo).
 

Canaima, es un proyecto socio-tecnológico abierto, construido de forma colaborativa, desarrollado en Venezuela y basado en Debian.
 

Gentoo, una distribución orientada a usuarios avanzados, conocida por la similitud en su sistema de paquetes con el FreeBSD Ports, un sistema que automatiza la
 

Linux Mint, una popular distribución derivada de Ubuntu.
 

Mandriva, mantenida por la compañía francesa del mismo nombre, es un sistema popular en Francia y Brasil. Está basada en Red Hat.
 

Red Hat Enterprise Linux, derivada de Fedora, es mantenida y soportada comercialmente por Red Hat.
 

Ubuntu, una popular distribución para escritorio basada en Debian y mantenida por Canonical.
 

Zorin OS, distribución basada en Ubuntu y orientada a los usuarios de Windows que quieren pasar a Linux de la forma más fácil y sencilla posible.


Kernel de un Sistema Operativo




En informática, un núcleo o kernel (de la raíz germánica Kern, núcleo, hueso) es un software que constituye una parte fundamental del sistema operativo, y se define como la parte que se ejecuta en modo privilegiado. Es el principal responsable de facilitar a los distintos programas acceso seguro al hardware de la computadora o en forma básica, es el encargado de gestionar recursos, a través de servicios de llamada al sistema. Como hay muchos programas y el acceso al hardware es limitado, también se encarga de decidir qué programa podrá hacer uso de un dispositivo de hardware y durante cuánto tiempo, lo que se conoce como multiplexado. Acceder al hardware directamente puede ser realmente complejo, por lo que los núcleos suelen implementar una serie de abstracciones del hardware. Esto permite esconder la complejidad, y proporciona una interfaz limpia y uniforme al hardware subyacente, lo que facilita su uso al programador.

En algunos sistemas operativos, no existe un núcleo como tal (algo común en sistemas empotrados), debido a que en ciertas arquitecturas no hay distintos modos de ejecución.


Kernel panic


El kernel panic (en español: pánico en el núcleo) es un mensaje mostrado por un sistema operativo una vez detectado un error interno de sistema del cual no se puede recuperar. Los kernel panic usualmente proveen información de depuración que es útil sólo para los desarrolladores del sistema operativo.


Historia

El kernel panic fue introducido en una versión temprana de Unix, y demostró una gran diferencia entre la filosofía de diseño de Unix y su predecesor Multics.


Posibles causas

Intentos del sistema operativo para leer una dirección de memoria inválida o no permitida son una fuente común de kernel panics. El error también puede ocurrir como resultado de un fallo de hardware.

Es probable también que se presente si falta algún módulo que deba ir pegado al kernel dependiendo del hardware con el que se cuente.

Un kernel panic puede ser producto de una explotación de una vulnerabilidad en algún módulo del núcleo de forma malintencionada, logrando corromper la integridad del sistema.







Kernel codex


Como he leído, núcleo mapas de 0(o 16) MB-896MB RAM física en 0xC0000000 dirección lineal y se pueden resolver directamente. Así, en la de arriba descritos caso de que solo tengo 512 MB:

· ¿Cómo puede el kernel mapa de 896 MB de sólo 512 MB ? En el esquema descrito, el núcleo de conjunto de las cosas, de manera que cada proceso de las tablas de la página asignan las direcciones virtuales de 0xC0000000 a 0xFFFFFFFF (1GB) directamente a direcciones físicas de 0x00000000 a 0x3FFFFFFF (1GB). Pero cuando solo tengo 512 MB de RAM física, ¿cómo puedo mapa, direcciones virtuales de 0xC0000000-0xFFFFFFFF valor físico 0x00000000-0x3FFFFFFF ? El punto es que tengo un alcance físico de sólo 0 x 00000000-0x20000000.

· ¿Qué acerca de los procesos de modo de usuario en esta situación?

· Cada artículo se explica sólo por la situación, cuando la he instalado 4 GB de memoria y el kernel asigna el 1 GB en el espacio del kernel y los procesos de usuario utiliza el resto de la cantidad de RAM.

lunes, 5 de octubre de 2015

Supercomputadoras



Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras comunes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto rendimiento y ambiente de cómputo de alto rendimiento, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y rendimiento. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 1 petaflops (que en la jerga de la computación significa que realizan más de 1000 billones de operaciones por segundo).

                             Características

  Velocidad de procesamiento: miles de millones de instrucciones de coma flotante por segundo.

  Usuarios a la vez: hasta miles, en entorno de redes amplias.

  Tamaño: requieren instalaciones especiales y aire acondicionado industrial.

  Dificultad de uso: solo para especialistas.

  Clientes usuales: grandes centros de investigación.

  Penetración social: prácticamente nula.

  Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.

  Parques instalados: menos de un millar en todo el mundo.
 
  Hardware : Principal funcionamiento operativo


  Principales usos 


Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:

  Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .

  Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.

  Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.

  Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.

  Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.

  Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.

  Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.