domingo, 23 de noviembre de 2008

Microsoft contraataca a Google y Mozilla con nuevo Explorer


La nueva versión del navegador web saldrá entre enero y marzo de 2009. Tras los lanzamientos de GChrome y el 3.0 de Firefox, el Explorer bajó del 90% al 75% en preferencia de los usuarios
navegadores web browser

En medio de la guerra de los navegadores que comenzó este año con el lanzamiento de Firefox 3, y la llegada de Google en el sector Chrome, Dean Hachamovitch, director general del programa, anunció en su blog la fecha de lanzamiento del producto.

La llegada de dos nuevos navegadores al mercado bien hizo especular en la Red que Microsoft contraatacaría a final de año, pero Hachamovitch por fin sitúa el lanzamiento definitivo en un espacio temporal. Hasta ahora se puede descargar la segunda Beta del navegador.

El diario británico The Inquirer habla directamente de retraso del producto y asegura, al igual que Tgdaily, que la demora viene producida por la falta de tiempo para evaluar las pruebas en el laboratorio y los cientos de reportes enviados por los usuarios. De hecho, Hachamovitch reconoce en su blog "las cientos de horas escuchando y respondiendo a las preguntas" en distintas reuniones.

En la actualidad, el 75% de los usuarios de Internet navegan a través de los navegadores de Microsoft. Sin embargo, hace cuatro años la compañía de Redmond contaba con una cuota de mercado del 90%. El gran responsable de esta disminución de debe a su principal competidor: Firefox, que cuenta ya con una cuota de mercado del 20%.

Prueban con éxito una Internet Interplanetaria



La NASA realizó un ensayo con una red de comunicaciones desde el espacio, que siguió el modelo de la web. Intercambiaron imágenes con una nave que se encuentra a más de 32 millones de kilómetros de la Tierra
El informe del Laboratorio de Propulsión a Chorro (JPL) de la NASA indicó que sus ingenieros usaron en octubre un software especial para transmitir docenas de imágenes.

Los ingenieros de JPL recurrieron a la red Deep Space Network de la NASA, utilizando como enlace a la sonda Epoxi que se desplaza rumbo a un encuentro del cometa Hartley, el cual debe ocurrir en dos años.

"Este es el primer paso hacia la creación de una capacidad de comunicaciones del espacio totalmente nueva, una internet Interplanetaria", manifestó Adrian Hooke, director de tecnología y redes espaciales de la NASA, en Washington.

La transmisión se basa en el software llamado Disruption-Tolerant Networking (DTN), cuyo protocolo fue desarrollado hace diez años.

El software envía información utilizando un método diferente a los protocolos que usa internet y esta web interplanetaria debe ser lo suficientemente robusta como para resolver demoras, alteraciones y desconexiones en el espacio, agregó la agencia en un comunicado.

Los problemas pueden plantearse cuando una nave espacial pasa detrás de un planeta y se interrumpe el contacto o cuando las comunicaciones se ven alteradas por las tormentas solares.

Una demora en recibir o enviar datos desde Marte, por ejemplo, puede ser de entre 3,5 y 20 minutos a la velocidad de la luz. Pero, al contrario del sistema de internet, no plantea la posibilidad de una desconexión.

En su diseño, si no puede encontrar un destinatario, o lo que JPL califica como "un nódulo", la información no se descarta y la mantiene hasta encontrarlo.

"En esta red interplanetaria inicial hay 10 nódulos", asegura Scott Burleigh, ingeniero de JPL.

Para explicar el sistema, JPL utiliza la analogía del básquet y señala que es como el jugador que pasa la pelota al compañero que se encuentra más cerca del aro. "En última instancia, la información será entregada al usuario", matiza.

Según Leigh Torgerson, director del centro de operaciones experimentales con DTN, en las actuales comunicaciones es necesario programar manualmente cada enlace y generar comandos específicos sobre qué datos enviar, cuándo enviarlos y a dónde.

En los próximos años, la creación de una internet interplanetaria permitirá que se realicen muchos tipos de misiones espaciales. Las complejas en las que participen diferentes naves de descenso, en órbita o móviles tendrán un apoyo mucho más fácil mediante este sistema.

Computadoras MIL veces más rápidas

Una nueva tecnología hará computadoras mil veces más rápidas gracias al láser

Por encargo del pentágono, Sun Microsystems investiga como reemplazar las conexiones entre los chips por haces de luz

San Francisco (EFE).- El grupo tecnológico Sun Microsystems está trabajando en una tecnología que sustituirá las conexiones entre chips por haces de luz láser, lo que permitiría fabricar ordenadores miles de veces más rápidos.

Sun Microsystems anunció hoy que recibió un contrato del Pentágono estadounidense por valor de 44 millones de dólares para desarrollar esta tecnología.

En concreto, Sun está intentando sustituir los diminutos cables que conectan los chips en las computadoras por conexiones láser que podrían transportar decenas de miles de bits por segundo.

De tener éxito, el resultado será ordenadores miles de veces más rápidos de lo que conocemos hoy y que, además, serán más eficientes porque generarán menos corriente eléctrica y calor.

Sun compara los procesos de los actuales microprocesadores con una autopista en la que los vehículos se mueven con más lentitud cuando toman una salida.

Igualmente, las señales eléctricas se mueven más despacio cuando viajan entre los chips. Su sustitución por haces de luz láser solucionaría el problema.

Greg Papadopoulos, responsable de tecnología e investigación y desarrollo de Sun, dijo en un comunicado que las comunicaciones ópticas "podrían modificar las reglas del juego en tecnología".

Según algunos expertos, este programa podría acabar con la ley Moore formulada por el fundador de Intel Gordon Moore, que afirma que el número de transistores de los chips informáticos se dobla cada dos años y que se ha cumplido en las últimas tres décadas.

Sun Microsystems trabaja en este experimento con las universidades de California en San Diego y Standford y con las compañías Luxtera y Kotura.

lunes, 10 de noviembre de 2008

Samsung NC10 la netbook con 7 horas de batería

Es la primera ultraportátil que dura 7 horas y media de vida si tienes la pantalla al 50% de brillo, Wi-Fi activado y navegando todo el tiempo por la red; la pantalla y el teclado también mejor que cualquiera de la competencia, de alguna forma Samsung logró poner un teclado que es solamente 7% más pequeño que uno normal. Y parece que el trackpad es bastante superior a otros portátiles similares.
La NC10 de Samsung cuesta $499 dólares y si necesitas una netbook, esta es la que tienes que te comprar, indudablemente. La verdad que es asombroso como la tecnología avanza cada día.

iKit, un ordenador en miniatura que cabe en la palma de la mano.

Esto es el remate. Si no teníamos bastante con la actual fiebre de los ultraportátiles, ahora nos encontramos con el iKit, un ordenador que cabe en la palma de la mano. Desarrollado por la firma COMsciences, se trata de un PC en miniatura que quizá tenga más en común con los UMPC y las agendas electrónicas por sus muchas limitaciones (en comparación con el netbook más básico).
El apodo de “compañero móvil de bolsillo” se lo otorgan sus reducidísimas dimensiones (quizás demasiado reducidas). Tan sólo pesa unos 113 gramos, y sus medidas son de apenas 1,5 x 6,6 x 9,4 centímetros. Lógicamente, el tamaño de la pantalla TFT está muy mermado, sólo 2,8 pulgadas. Esto acarrea otra restricción más, pues los vídeos no podrán superar la resolución de 320 x 240 píxeles. Por si aún no fuese suficiente, para usar el teclado QWERTY resultaría más cómodo utilizar un alfiler que teclear con los dedos (el que consiga escribir algo, que me cuente como lo ha hecho).

El iKit funciona con un procesador Marvell a 312 megahercios y 64 megas de memoria SDRAM. La capacidad de almacenamiento interna es casi anecdótica, lo que hace imperativo utilizar tarjetas de memoria tipo microSD hasta un máximo de 8 gigabytes. En su pequeña carcasa también hay sitio para un puerto mini USB, que puede usarse como conexión para los auriculares includidos (aunque también lleva un altavoz integrado). Hasta tiene cámara web integrada, aunque sea de sólo 0,3 megapíxeles. Y dispone de conectividad Wi-Fi para acceder a internet y Bluetooth para sincronizarlo con otros aparatos.
El sistema operativo del que se sirve es Linux, con varias utilidades genéricas. Entre ellas encontramos un navegador web (Opera Mini 4.1), el cliente de correo, un programa de mensajería instantánea, calendario, calculadora o soporte para aplicaciones y juegos Java. Pero en cuanto a formatos multimedia está bastante limitado: AVI, 3GP y MP4 en vídeo; MIDI, WAV y MP3 en audio; JPG, BMP, GIF y PNG en imagen estática.

No cabe duda de que es un dispositivo portátil, que puedes guardar en cualquier bolsillo cómodamente. El problema es que resulta muy poco útil y manejable.




USB Power Bar, cargador universal de bolsillo

Es una barrita energética, aunque no como las de los desayunos. La USB Power Bar alimenta a tus gadgets para que nunca se queden sin energía. El accesorio que siempre querrás llevar encima cuando pasas un par de días fuera, pero no quieres prescindir de tu teléfono móvil, tu reproductor MP3 de bolsillo o Ipod, etc. Y encima también es una útil linterna.
En su interior lleva una batería de ión de litio que tendrás que cargar antes de salir. Su capacidad es de 2.200 miliamperios, lo que aproximadamente equivale a tres o cuatro cargas para gadgets de bolsillo. Claro que, esto depende mucho del dispositivo en cuestión. No consume la misma energía un iPod que un móvil con múltiples funciones, por ejemplo. Para que siempre tengas una referencia de la carga restante dispone de un indicador luminoso.


El kit incluye siete adaptadores compatibles con un montón de marcas y modelos. Tienes el típico USB, que se utiliza en muchos aparatos. Para el teléfono tienes conexiones compatibles con los modelos de los principales fabricantes: Nokia, Samsung, Sony Ericsson o Motorola. También puedes recargar tu consola portátil, ya sea la DS de Nintendo o la PSP de Sony. Y no podía faltar un conector específico para el iPod.




Además, la USB Power Bar protege a tus accesorios de cargas excesivas que pueden dañar las baterías. Y si eso no es suficiente, también se puede utilizar como linterna de emergencia. Encima incluye un práctico estuche y el adaptador USB necesario para cargar la barrita a través del PC.

jueves, 16 de octubre de 2008

BIOS - POST





BIOS


BIOS (Sistema básico de entradas y salidas, del inglés "Basic Input/Output System") es un componente esencial que se usa para controlar el hardware. Es un pequeño programa, que se carga en la ROM (Read-Only Memory (Memoria de sólo lectura), tipo de memoria que no puede modificarse) y en la EEPROM (Electrically-Erasable Programmable Read-Only Memory (Memoria de sólo lectura que es programable y que puede borrarse eléctricamente)). De allí proviene el término flasher, que designa la acción de modificar el EEPROM.

POST

Cuando se enciende o se restablece un sistema informático, el BIOS realiza un inventario del hardware conectado al ordenador y efectúa un diagnóstico llamado Prueba automática en el encendido (POST, Power-On Self Test) para comprobar que el equipo funciona correctamente.
  1. Efectuar una prueba del procesador (CPU)
  2. Verificar el BIOS
  3. Verificar la configuración del CMOS
  4. Inicializar el temporizador (reloj interno)
  5. Inicializar el controlador de DMA
  6. Verificar la memoria RAM y la memoria caché
  7. Instalar todas las funciones del BIOS
  8. Verificar todas las configuraciones (como por ejemplo teclado, unidades de disco y discos rígidos)

Si en algún momento el POST encuentra un error, intentará continuar con el inicio del ordenador. Sin embargo, si el error es serio, el BIOS detendrá la carga del sistema y:
de ser posible, mostrará un mensaje en la pantalla (porque el dispositivo puede no haber sido inicializado o puede presentar fallas);
emitirá una secuencia de sonidos que permite diagnosticar el origen del error;
enviará un código (denominado código POST) al puerto serial del ordenador, que puede recuperarse a través de hardware especial de diagnósticos.

Si no hay problemas, el BIOS emitirá un sonido corto para informar que no hay errores, aunque esto depende del modelo del BIOS (como se puede ver en las imagenes posteriores)  actualmente muchas computadoras se encienden sin emitir sonidos.

Las siguientes dos graficas muestran los errores que pueden surgir en dos modelos de BIOS (Award BIOS y BIOS AMI) , y que son emitidos de forma acusticas, y las correspondientes soluciones a los mismos.






Version ampliada de las imagenes de arriba:
http://img519.imageshack.us/img519/2714/post1aah0.jpg
http://img115.imageshack.us/img115/4807/post1bjf7.jpg

 
De esta manera, por ejemplo un sonido largo seguido de dos sonidos cortos indicara un error en alguno de los dispositivos de video (tarjeta gráfica). En dicho caso, verifique que la tarjeta esté ubicada correctamente en su ranura o en última instancia, cámbiela. Cualquier otro sonido indica un error relacionado con la memoria.

La mayoría de los BIOS tienen un programa de configuración que permite modificar la configuración básica del sistema. Este tipo de información se almacena en una memoria auto-alimentada (por medio de una batería), para que la información permanezca almacenada incluso si el ordenador se encuentra apagado (la memoria RAM se reinicia cada vez que se inicia el sistema).

Cada equipo cuenta con varios BIOS:
  1. El BIOS de la placa madre
  2. El BIOS que controla el teclado
  3. El BIOS de la tarjeta de video 
  4. El BIOS para controladoras SCSI, que se utiliza para iniciar desde un dispositivo SCSI, el que luego se comunica con el DOS, sin que se necesite un controlador adicional.
  5. El BIOS de la tarjeta de red para iniciar desde una red

Cuando se enciende el ordenador, el BIOS muestra una mensaje de copyright en pantalla, luego realiza los diagnósticos y pruebas pertinentes a la inicialización. Luego de completadas las pruebas, el BIOS muestra un mensaje en el que se invita al usuario a que presione una o más teclas para ingresar a la configuración del BIOS.

Según la marca de BIOS, puede tratarse de la tecla F2, de la tecla F10, o bien de la tecla Supr, o alguna de las siguientes secuencias de teclas:
  • Ctrl+Alt+S
  • Ctrl+Alt+Esc
  • Ctrl+Alt+Ins

En los BIOS Award, se muestran los siguientes mensajes durante el POST:

PARA INGRESAR A LA CONFIGURACIÓN ANTES DE REINICIAR PRESIONE CTRL-ALT-ESC O LA TECLA DEL


Como la configuración del BIOS permite modificar la configuración del hardware, puede suceder que el sistema se vuelva inestable, incluso que no pueda reiniciarse. Cuando esto suceda, será necesario cancelar las modificaciones en el BIOS y restaurar nuevamente la configuración predeterminada.

Si el ordenador se inicia y se logra acceder al BIOS, por lo general, podrá volver a la configuración predeterminada. En el BIOS Phoenix, presionando la tecla F9 puede volver a la configuración predeterminada por el fabricante. En el BIOS Award, presione F5 para restaurar la configuración anterior, F6 para restaurar la configuración predeterminada de BIOS Award y finalmente, F7 para restaurar la configuración predeterminada por el fabricante de la placa madre.

Si no puede acceder al BIOS por medio de los procedimientos estándar, la mayoría de las placas madre poseen un puente para recuperar los valores predeterminados. Sólo debe cambiar la posición del puente y dejarlo en esta nueva posición durante diez segundos.

Diego Reyes.

martes, 14 de octubre de 2008

La Ley de Moore todavia se cumple











En 1965, el cofundador de Intel, Gordon Moore, tuvo una visión de futuro. Su predicción [PDF], conocida popularmente como la Ley de Moore, plantea que el número de transistores de un chip se duplica cada dos años. Esta observación sobre la integración del silicio, convertida en realidad por Intel, ha avivado la revolución tecnológica mundial.


Hay muchas personas familiarizadas con los incrementos exponenciales de Intel en el número de transistores integrados en nuestros procesadores y en otros ingredientes de primer nivel para plataformas. Estos incrementos, tal y como se ilustra en el gráfico siguiente, nos han llevado de una forma sólida y fiable hacia más rendimiento informático según se mide en millones de instrucciones por segundo (MIPS).



La Ley de Moore es sinónimo de más rendimiento. La capacidad de proceso, medida en millones de instrucciones por segundo (MIPS), ha subido debido a cómputos de transistores en aumento.

Pero la Ley de Moore también significa costes en descenso. A medida que los ingredientes de las plataformas y los componentes basados en el silicio obtienen más rendimiento, resulta exponencialmente más barato fabricarlos y, por consiguiente, son más abundantes, más potentes y están más integrados en nuestra vida cotidiana. Los microprocesadores de hoy día equipan todo tipo de artículos, desde juguetes hasta semáforos. Una tarjeta de cumpleaños musical que cuesta unos pocos pesos hoy día tiene más capacidad de proceso que los grandes ordenadores más rápidos de hace décadas.



Fuentes:
Intel 40 Aniversario de la Ley de Moore [visitar web]
Wikipedia "Ley de Moore" [visitar web]

martes, 9 de septiembre de 2008

Personalidades (2º generación)

John Bardeenn, William Shockley y Walter Brattain


John Bardeenn, William Shockley y Walter Brattain

En 1.947, los Físicos Walter Brattain, William Shockley y John Bardeen, de los laboratorios Bell lograron el descubrimiento del transistor (Contracción de los términos Transfer Resistor). El descubrimiento del transistor trajo como consecuencia la disminución de los costos de los ordenadores, la disminución de tamaño y rapidez. El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. . El transistor funciona de manera muy semejante a la de un tríodo, pues puede funcionar como amplificador, como oscilador y como interruptor, pero tiene ventajas muy importantes respecto a éste:
1. Como no necesita vacío, es mucho más fácil de construir.
2. Puede hacerse tan pequeño como se quiera.
3. Gasta mucha menos energía.
4. Funciona a una temperatura más baja.
5. No es necesario esperar a que se caliente.


Maurice Vincent Wilkes


En 1951, desarrolló el concepto de la microprogramación cuando se dio cuenta de que la unidad central de proceso de un ordenador podía estar controlada por un pequeño programa altamente especializado y escrito en memoria ROM, que es muy rápida. Este concepto simplificó enormemente el desarrollo de los procesadores.


Grace Murray Hooper, John Backus, John MacCarthy, Alan Perlis y Peter Naur, Thomas Kurtz y John Kemmey.

En el mismo año, Grace Murray Hooper da la primera noción de compilador y más tarde desarrolla el COBOL. Pero fue John Backus, en 1957, el que desarrolla el primer compilador para FORTRAN. En 1958, John MacCarthy propone el LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la Inteligencia Artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL.
El BASIC, nació en la Universidad de Dartmouth, bajo la dirección de John Kemmey y Thomas Kurtz. En 1.963 la Universidad de Dartmouth decidió que todos los estudiantes debían aprender a manejar los ordenadores, de este modo se empezó a trabajar en "tiempo compartido" o empleo de terminales, usando un ordenador General Electric.

Jack Kilby

La introducción de los transistores en la construcción de ordenadores fue el inicio de un proceso de miniaturización de los componentes electrónicos a nivel mundial. Del mismo modo que el circuito que hace que la válvula de vacío pueda comprimirse en un pequeño transistor, también pueden comprimirse varios transistores en una sola pieza de material semiconductor, en este caso de silicio.
En 1.958 Jack Kilby de Texas Instruments construyó el primer circuito integrado.
IBM en el año 1.964 produce la serie 360 con circuitos integrados, sustituyendo la serie 700, la cual estaba diseñada con transistores. Otra características de estos aparatos era la memoria virtual. En 1.964 se introduce el concepto de byte. Como la serie 360 empleaba grupos de 8 bits, se le dio el nombre de byte a la unidad básica de información compuesto de 8 bits.

Diego Reyes.

Personalidades 1º y 2º Generacion

PRIMERA GENERACION:

  • Blaise Pascal: Creador de la maquina aritmetica "Pascal o Pascalaina".
  • Charles Babbage: Considerado el padre de la informatica.Tenia dos proyectos nunca se llegaron a contruir y eran la "Maquina Diferencial y la analitica".
  • Alan M. Turing: Creado de la "maquina de Turning" y el conocido "Test de Turning".
  • W.Hewelett D. Packard: Fundadores de la conocida empresa Hewellet Packard.

SEGUNDA GENERACION:

  • John V. Atanasoff: Considerado el padre del ordenador moderno, primera maquina totalmente electronica.
  • Douglas Engelbart: Invento el raton (Mouse).
  • John Von Neumman: Primera computadora con almacenamiento de programas en memoria.

Primera Generacion

PRIMERA GENERACION
(1938-1953)
La primera generacion fue marcada con la aparicon de la VALVULA DE VACIO para el procesamiento de los datos. La primer computadora realizada con esta tecnologia fue la llamada ENIAC I.
Se impliento el uso de TARJETAS PERFORADAS para ingresar los datos al ordenador y programas.
El almacenamiento interno de la computadora se realizaba en grandes TAMBORES q qiraban a altas velocidades sobre el cual uno dispositivo de lectura y escritura colocaba marcas magneticas.
Esas computadoras de vulvo eran mas grandes y generaban mas calor que las computadoras modernas, al punto tal que tenian un sistema de aire acondicionado para su refrigeración.
Se reemplaza el diseño de Babbage por el de Von Neumann

-La primera computadora comercialmente viable fue lanzada por IBM en el 1950 con el modelo 701
Luego aparecio la innovacion de IBM al modelo 650, el cual se comercializo con mucho éxito en todo el mundo principalmente en los EE.UU. y es la razon por la que hoy IBM posee gran parte del mercado de las computadoras.-

La quinta generación

Mas que el componente electronico se perciben determinadas metas como:

  • El procesamiento paralelo.
  • El manejo del lenguaje con sistemas de inteligencia artificial .

Esta generacion se caracterizo por:

  • Uso de computadoras personales.
  • El uso de microprocesadores dentro de las maquinas .
  • Se redujo radicalmente el tamaño de los ordenadores.
  • Las conexiones entre ordenadores como redes pequeñas e Internet.

martes, 2 de septiembre de 2008

Google Chrome (BETA) para Windows


Ya se puede descargar.

El diseño minimalista del navegador Google Chrome permite un uso más rápido, fácil y seguro de la Web.

Cuarta Generaciòn (1972 - 1983)

- Aparecen los microprocesadores
- Nacen las computadoras personales (PC), que se crea por primera vez en 1976
- Se le otorga el 1er computador comercial el IBM-PC el DOS
- El mismo año se crea Apple
- El primer microprocesador 4004 (no comercial), el primer comercial 8088
- Se desarrolla la supercomputadora
- Se remplazan las memorias de anillos magnéticos por la memoria de chip de silicio
- Se crea el lenguaje C
- Primer hoja de calculo: viscal

2º Generacion de Computadoras (1952-1963)

  • Invención del transistor q reemplaza la válvula
  • Los transistores son mas pequeños y consumen menos electricidad
  • Surgen los lenguajes de alto nivel (es una programación mas lógica, y no físico)
  • Se invento la microprogramación
  • DEC lanza la PDP-1 y PDP-2 para uso técnico e investigación
  • IBM anunció la serie S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidades, capacidad y precio.