miércoles, 4 de enero de 2012

La Tecnologia Del 2012

Con todas las cifras claras del año recién pasado, ya es posible proyectar cuáles serán los principales cambios en la industria y predecir cómo será el escenario este 2012, un año que, según los analistas, tendrá cambios mucho más significativos que los que se pensarían a primera vista.

2012 es un año que de todos los frentes parece venir agitado. Luego de un 2011 marcado por la crisis europea, los desastres naturales y las protestas de ciudadanos indignados a lo largo de todo el mundo, en el nuevo año no parecen detenerse en estos procesos. La tecnología no es excepción, y los analistas de importantes consultoras como IDC y Gartner ya han realizado sus proyecciones para este año en el mundo IT, y si bien algunas son bastante obvios, es posible encontrar más de una sorpresa.

A niveles generales, el gasto en IT en el mundo crecerá en 6,9%, "una sorprendentemente sólida alza tomando en cuenta la economía frágil y en reciente recuperación", dice Frank Gens, uno de los investigadores de IDC encargados de las predicciones de este año. "Los dispositivos móviles, las aplicaciones y los mercados emergentes serán los principales factores de crecimiento, mientras que los asuntos relacionados a la deuda europea dominarán los riesgos de bajas".

Mientras tanto, servicios como el cloud computing, el almacenamiento, la gestión de datos y las comunicaciones, sufrirán cambios importantes y decisivos para el futuro de la tecnología empresarial mundial. Aquí algunos de los mejores ejemplos.

Cloud computing. La computación en la nube ha sido sin duda uno de los servicios que más destacó el año pasado, con todo tipo de compañías aprovechando de desarrollar y trasladar servicios que permitan la facilidad de uso, movilidad y bajos costos de mandar la información a la nube. En el nuevo año esta tendencia debería agudizarse y el escenario de mercado se modificará notoriamente.

"Para el 2015, servicios de bajo costo en la nube canibalizarán hasta el 15% de las ganancias de las empresas más importantes del mercado", dicen las predicciones de Gartner, que suelen proyectarse un poco más allá del propio año. "El proyectado mercado de US$1 trillón está al comienzo de una fase de disrupción, similar a la que introdujeron las aerolíneas de bajo costo en la industria del transporte".

En esa misma línea, IDC cree que durante el 2012 la adopción de servicios cloud excederá los US$36.000 millones, subiendo 28%, cuatro veces más rápido que el resto de la industria. "Casi dos tercios de los gastos serán en IT y aplicaciones para el usuario final (conocidas como, SaaS), y cerca de un cuarto será para la nube de infraestructura (IaaS). Pero el segmento que crecerá más rápido dentro de los servicios en la nube será el de Plataforma como Servicio (PaaS, por sus siglas en inglés), subiendo 51% y constituyéndose como una punta de lanza estratégica en la futura guerra del cloud", dice IDC.

Revientan las redes sociales. Las redes sociales se han elevado con ímpetu tanto a nivel de usuario como de empresas, y ya es casi un lugar común que las compañías deben tener representación en el mundo de Twitter y Facebook. A esto se han sumado decenas de otras redes sociales que apuntan a distintos nichos, y parece ser que el crecimiento y la inversión en cada una de ellas es un cuento de nunca acabar.

Pero parece ser que el próximo año todo podría cambiar.

Una de las proyecciones que más sorprendió de parte de Gartner fue la afirmación de que "en el 2013, la burbuja de inversiones reventará para las redes sociales de consumidores, sucediendo lo mismo el 2014 para las redes empresariales". ¿Por qué sucedería esto? Según los analistas, los vendedores en el espacio de las redes sociales están compitiendo entre ellos a un ritmo inusualmente agresivo, aún para el mercado de tencología.

"Si bien se levantará un entusiasmo sustancial luego que las firmas privadas comiencen a cortizar en la bolsa, las valoraciones de vendedores más pequeños e independientes se reducirán cuando se comience a reconocer que las oportunidades para una diferenciación de mercado y un crecimiento rápido ya se han erosionado", agrega IDC.  

Infraestructura y Big Data. Aunque se podría pensar que el crecimiento en el mercado del cloud computing producirá una reducción equivalente en el de la infraestructura y el hardware físico, las proyecciones esperan exactamente lo contrario.  

"En un mundo móvil y adoptado a la nube, la red y la infraestructura son más críticos que nunca. Para el 2012, predecimos una demanda en alza, cambios disruptivos en la infraestructura (para hacerla más móvil), retos cada vez mayores (competiciones, fondos), y más oportunidades. En resumen: un mundo que exigirá mucha adaptabilidad para lograr sobrevivir", dice Frank Gens de IDC. En otras palabras, el resultado de una mayor exigencia de servicios cloud creará mayor demanda para soportar aquellos servicios. 

El 2012 será otro año de la gran inundación de información a la que nos hemos acostumbrado. Pero lo más importante, es que también veremos movimientos claves en esta multimillonaria oportunidad de exprimir fuentes de gran valor de este flujo creciente de Big Data. El universo digital, por ejemplo, se expandirá en casi 50%. IDC predice que en el 2012, el volumen del contenido digital se elevará hasta los 2.7ZB, 48% más que el 2011, y hasta cerca de 8ZB para el 2015. De esta información, más del 90% será desestructurada (imágenes, videos, música, entre otras), muy ricas en información pero difíciles de entender y analizar.

Esto indica que se hará cada vez más necesarios sistemas de procesamiento de información y almacenamiento de la misma, haciendo crecer los mercados de la infraestructura y el manejo de datos tanto tecnológica como económicamente.

Mobilidad y telecomunicaciones. "Para el 2015, los proyectos de publicidad apuntando a smartphones y tablets superarán aquellos diseñados para PC en una razón de 4 a 1", dice una predicción de Gartner respecto al crecimiento del mercado móvil.

La firma argumenta que los smartphones y las tablet representará más del 90% del crecimiento del uso de la red durante los próximos cuatro años, y que la cada vez mayor capacidad de la plataforma de aplicaciones a lo largo de todos los tipos de teléfono está definiendo una nueva frontera de innovación, una donde las capacidad móviles pueden integrarse con localización, telepresencia e información social para mejorar la utilidad.

Esto, por supuesto (y sumado al punto anterior), incrementará al tráfico en las redes y hará necesario cambios en las empresas que gestionan y otorgan los servicios de conexión móvil, pudiendo llevar finalmente a una modificación de las formas en que las empresas cobran por su servicio.

"Enfrentados a incrementos exponenciales de tráfico de datos, los operadores móviles el 2012 continuarán luchando para crear modelos de negocio que traigan beneficios económicos y que vayan más allá de los típicos planes mensuales de pago", dice IDC en su informe. "Los fabricantes de dispositivos, los vendedores de software y los canales de venta continuarán presionando a los operadores tradicionales de telefonía para generar nuevas formas de crear ganancias por los servicios y márgenes de ganancia mejorados. La consolidación global y la expación hacia nuevos mercados continuará aún cuando la compra de AT&T a T-Mobile haya resultado en un fracaso", sentencia IDC.

viernes, 16 de diciembre de 2011

Historia de la Tecnología: El lenguaje COBOL

Con la llegada de las primeras computadoras en el período final de la Segunda Guerra Mundial como proyectos de investigación de las Universidades (o como descifradoras de códigos criptográficos) y su posterior fabricación de manera industrial para su despliegue en centros de investigación y empresas, cada computador poseía un lenguaje de programación propio y, por tanto, los programas no se podían llevar de un computador a otro distinto salvo que el código se adaptase. La llegada de las computadoras a las empresas supuso un punto de inflexión en la gestión de las nóminas o la contabilidad y, gracias a la gestión por computador, mejoraron muchos procesos en las empresas.
Sin embargo, cada computadora requería su propio lenguaje y eso suponía aumentar la curva de aprendizaje de los técnicos de las empresas, sobre todo, si la compañía adquiría una nueva computadora. En 1958, muchos profesionales de la industria estaban de acuerdo en que era necesario buscar una normalización que permitiese trabajar con un único lenguaje en cualquier computador así que, gracias a la formación de un consorcio entre varias empresas de la industria de los computadores y el Departamento de Defensa de Estados Unidos, se convocó el CODASYL (Conference on Data Systems Languages) para buscar un lenguaje de programación que pudiera ser un estándar en el ámbito de la gestión, así fue como nació el lenguaje de programación COBOL (Common Business-Oriented Language, cuyo nombre fue otorgado el 18 de septiembre de 1959).
¿Y quiénes formaban este consorcio de empresas y entidades gubernamentales? La patronal del sector de los fabricantes de computadoras estaba representada por Burroughs Corporation, IBM, Minneapolis-Honeywell, RCA, Sperry Rand y Sylvania Electric Products. Por otro lado, el gobierno de Estados Unidos estaba representado por la Fuerza Aérea de Estados Unidos, la Armada de Estados Unidos (a través de un centro de investigación, el David Taylor Model Basin) y la Oficina Nacional de Estándares (que ahora se denomina Instituto Nacional de Estándares y Tecnología). A partir de estos participantes, se crearon diversos comités que, como suele ocurrir, no eran demasiado operativos excepto, como no, el comité más técnico que estaba formado por un grupo reducido que logró entenderse bastante bien.
CODASYL1959
El lenguaje de programación COBOL es fruto del consenso del grupo de trabajo formado por la Oficial de la Armada de Estados Unidos Grace Hopper, William Selden, Gertrude Tierney, Howard Bromberg, Howard Discount, Vernon Reeves y Jean E. Sammet. Grace Hopper ya había desarrollado en 1955 el lenguaje de programación Flow-Matic y, por otro lado, en IBM habían desarrollado el IBM COMTRAN, dos lenguajes que se utilizaron como referencia y base a la hora de desarrollar COBOL.
¿Qué es COBOL? Además de ser uno de los lenguajes de programación más antiguos que se conocen (y que además sigue utilizándose), fue un lenguaje que se definió en un tiempo récord (apenas 6 meses) con las siguientes características:
  • Orientado de manera expresa a la automatización de procesos relacionados con el negocio
  • Utilización de nombres de hasta 30 caracteres que, además, podían unirse usando guiones (permitiendo que el código fuese legible al poder usar nombres en variables bastante autoexplicativos)
  • Cada variable se define en detalle, es decir, había que especificar el número de dígitos a usar y la posición del punto decimal y la posibilidad de definir campos estructurados
  • Los archivos que se obtenían como salida estaban formateados para su impresión, algo que era de agradecer en el manejo de datos contables
  • Programación visual con la posibilidad de utilizar objetos
  • Uso de bibliotecas de clases
  • Para evitar errores de redondeo con la conversión a binario (y evitar errores contables), COBOL manejaba números en base diez
  • La sintaxis de COBOL es muy similar al idioma Inglés, evitanado el uso de símbolos y haciendo que personal no programador, como un gerente, pudiese echar un vistazo al código y entender lo que éste podía hacer
Los primeros compiladores de este lenguaje se desarrollaron en 1960 y, tras esto, los días 6 y 7 de diciembre de ese mismo año se llevó a cabo la prueba de fuego: escribir un programa en COBOL para ejecutarlo en dos computadores de fabricantes distintos (una computadora de RCA y una Univac de Remington-Rand), dado que las pruebas fueron satisfactorias (y el programa funcionaba correctamente).
UNIVAC-1-GraceHopper
Este nuevo lenguaje, compatible y orientado a los negocios, se hizo muy popular y propició la generación de una comunidad de entusiastas que comenzaron a realizar aportaciones que provocaron una revisión del lenguaje y una nueva versión en 1965. Posteriormente, en 1968, se lanzaría la primera versión ANSI de COBOL (que también sería revisada en 1974, 1985, 1989 con la adición de funciones matemáticas y el año 2002). A pesar de su popularidad, no gustó a todo el mundo y surgieron algunos detractores de este lenguaje como Edsger Dijkstra:
El uso de cobol paraliza la mente, por lo tanto, su enseñanza debería considerarse una ofensa criminal.
De hecho, para ser un lenguaje nacido en 1959, se está preparando desde hace unos años una nueva versión de COBOL, un hecho que puede sorprender a muchos. ¿Y por qué COBOL sigue estando vigente? Decir que este lenguaje está vigente, bajo mi punto de vista, es quedarse algo corto porque los programadores que conocen el lenguaje COBOL son profesionales muy cotizados en el sector de la banca y las empresas que trabajan con grandes mainframes que requieren una gran capacidad de proceso por lotes. Los programas realizados en COBOL, tras más de 50 años de uso, son considerados extremadamente fiables en las empresas y, dado que manejan datos críticos (facturación, contabilidad, etc), muchas de éstas suelen ser conservadoras y no cambiar lo que ya funciona perfectamente.
Código Cobol - NeoTeo
Pensemos que existen más de 200 mil millones de líneas de código en COBOL en sistemas que están en producción en sectores como la banca o en administraciones públicas, donde la fiabilidad es un requisito y donde el mantenimiento de estos sistemas es mucho más barato que abordar una migración a otros sistemas (con menos garantías de fiabilidad contrastada). De todas formas, los que recuerden la histeria del Efecto 2000 que iba a paralizar el mundo, quizás se acuerden que la banca, por ejemplo, era uno de los sectores que se habían identificado entre los que podían tener problemas porque COBOL codificaba el año con dos dígitos.
Hay una frase de Bill Gates que resume perfectamente bien lo que ha supuesto COBOL al mundo de la programación y la eterna vigencia de este lenguaje:
No sé qué lenguajes habrá en el futuro, pero seguro que Cobol estará todavía allí
La verdad es que creo que la frase de Gates es más que acertada y, seguramente, COBOL seguirá vigente bastantes años más.

La tecnología LTE provoca interferencias en los GPS

La tecnología de ondas LTE provoca interferencias con los GPS. Fuente: Karl Baron.
La tecnología de ondas LTE provoca interferencias con los GPS. Fuente: Karl Baron.
LightSquared, compañía que ofrece la nueva tecnología LTE, tenía la esperanza de que los problemas de interferencias con los sistemas GPS fueran achacables al cambio de espectro bloqueado dependiente de Inmarsat, según ha publicado Bloomberg News.

Sin embargo, las pruebas realizadas por el gobierno de los Estados Unidos a principios de noviembre para comprobar el funcionamiento de esta red revelan que el servicio de banda ancha móvil de LightSquared causó interferencias en las tres cuartas partes de los GPS en los que se probó. Por su parte, la compañía ha explicado que los informes -que han sido filtrados- no son definitivos ni están completos. En este sentido, LightSquared ha pedido una investigación para aclarar cómo se ha hecho pública la información.

Los resultados de las pruebas realizadas del 31 octubre al 4 noviembre demuestran que "millones de sistemas GPS no son compatibles" con el nuevo servicio de cobertura móvil a nivel nacional, según el borrador visto por Bloomberg News.

"Las señales de LightSquared causaron severas interferencias a la mayoría de los receptores GPS que estaban a prueba", según el proyecto elaborado para una reunión que tiene previsto celebrarse hoy por funcionarios de Estados Unidos. Así, se apunta a que no son necesarias pruebas adicionales para confirmar que dicha interferencia perjudicial existe.

LightSquared, respaldado por tres mil millones de dólares del fondo de inversión de Falcone Harbinger Capital Partners, se enfrenta al reto que plantean los fabricantes de sistemas de dispositivos de posicionamiento global, que argumentan que el servicio LTE interrumpe la navegación de coches, barcos, tractores y aviones. La comisión de regulación de telecomunicaciones de Estados Unidos está reteniendo temporalmente la aprobación de esta nueva tecnología, hasta que no se verifiquen las reclamaciones de interferencias.

LG incorporará la tecnología WiDi en los nuevos Cinema 3D Smart TVs

lgcinema3dwidi
LG Electronics e Intel firmaron una alianza estratégica para adoptar y promover la tecnología Intel Wireless Display (WiDi) de manera nativa en los televisores LG de la línea Cinema 3D Smart TV.
“Intel está planeando expandir la tecnología Intel WiDi a varios dispositivos para ofrecer al consumidor la mezcla perfecta para una experiencia de uso inteligente. A través de esta colaboración con LG Electronics, los propietarios de un Cinema 3D Smart TV también podrían beneficiarse de Intel WiDi sin la necesidad de comprar un adaptador externo”, dijo  Hee-Sung Lee, Country Manager de Intel en Corea.
La tecnología WiDi permite un conexión directa entre chips WiFi integrados de las portátiles y los televisores Cinema 3D. Antes para sacarle jugo a aquellos portátiles con capacidades WiDi era necesario adquirir un adaptador Push2TV o D-Link Mainstage conectado a tu HDTV. Ahora con la integración nativa es posible compartir contenidos multimedia – locales y sitios de video – de una forma transparente.
WiDi en su versión 2.0  llegó como una característica sobresaliente de los equipos con procesadores Intel Core de Segunda Generación. Con esta  actualización ya es posible manejar resolución Full HD 1080p y sonido Surround 5.1, además de permitir el streaming inalámbrico de películas Blu-ray y DVDs protegidos con la encriptación HDCP 2.0.
Los nuevos Cinema 3D Smart TVs con WiDi serán exhibidos durante el CES 2012 pero por desgracia no hay información sobre precios o disponibilidad. Sin embargo, una de las posibles ventajas durante esta presentación sería el soporte de WiDi para contenido 3D. Algo que hasta ahora permite  el poco explotado estándar WHDI.

Lo mejor en tecnología del año: smartphones

Cada año finaliza con grandes estrellas en cada una de las áreas de la tecnología, donde puede verse todo el potencial que intentó exprimirse en el periodo y algunos adelantos de lo que vendrá en el próximo. Preparamos una lista con lo mejor de cada categoría, y comenzaremos por los celulares.


-Samsung Galaxy S II
Samsung Galaxy S II
-La actual estrella de la compañía coreana Samsung, el Galaxy S II es uno de los productos más destacados de este 2011, alcanzando ventas de más de 300 millones de teléfonos, y siendo una de las principales opciones a la hora de oponerse al iPhone 4S de Apple.
 
El Samsung Galaxy S II cuenta con una pantalla táctil de grandes dimensiones, al punto de que algunos puristas suelen decir que está más cerca de ser una tablet que un teléfono, alcanzando las 4,3 pulgadas, bajo un cristal Corning Gorilla Glass, tan resistente que será difícil rayarlo hasta intencionalmente.
 
Sorpresivamente, es uno de los teléfonos más delgados y livianos del mercado, con 8,5mm y 116gr, lo que contribuye a que aún tomando en cuenta sus dimensiones de 125,3mmx66,1mm, sera cómodo sostenerlo y utilizarlo.
 
El teléfono cuenta con un procesador de 1.2Ghz y doble núcleo, suficiente para que ninguna aplicación, juego, o tarea le presente algún tipo de resistencia.
 
Siento un teléfono tope de línea, es normal que cuente con varias opciones de conectividad, por lo que accede a redes 3G, Wi-Fi 802.11 a/b/g/n, Bluetooth, y es capaz de compartir su conexión con otros teléfonos, funcionando como un router USB.
 
También cuenta con una cámara trasera de 8Mp y flash LED, que puede grabar video a 1080p a 30fps, y una cámara frontal de 2Mp para videollamadas. 
 
¿Para qué tipo de personas? El Galaxy S II, por sus gran velocidad, pantalla gigante, batería decente y buenas prestaciones multimedia, es un teléfono ideal para quienes trabajen con contenido multimedia o gusten de un espacio de visualización amplia. De todas formas, este teléfono tiene opciones suficientes como para acomodarle a cualquier segmento del trabajo.
 
-iPhone 4S
92
iPhone 4S
-Si hay algo que caracteriza a los productos de Apple es que siempre dejan satisfechos a sus usuarios. El iPhone 4S no se diferencia de forma revolucionaria de su anterior modelo (de hecho estéticamente es igual) pero cuenta con mejores elementos que lo hacen una de las opciones más completas.
 
Con dimensiones de 115,2x58,6x9x3mm y un peso de 140g, es relativamente compacto, y liviano comparado con otros equipos de la generación smartphone.
 
El 4S cuenta con una pantalla táctil de 3,5 pulgadas, pero no es cualquier pantalla, con la tecnología Retina Display presenta una calidad de imagen difícil de igualar en el mercado, haciendo que los videos y las fotos se vean con mayor definición.
 
El teléfono posee un procesador doble núcleo Cortex A9 de 1GHz, el mismo del iPad 2, por lo que es varias veces más rápido que el anterior modelo de iPhone.
 
El punto donde más destaca el iPhone 4S es en su conectividad, ya que puede acceder a redes 2G y 3G tanto de tecnología GSM como CDMA, lo que lo hace un teléfono totalmente internacional, y puede ser usado con confianza por quienes viajen mucho por el mundo.
 
La cámara trasera es de 8Mp y tiene un sensor que le da mucha estabilidad y nitidez, mientras que la delantera, destinada a las videoconferencias, es sólo de calidad VGA.
 
¿Para qué tipo de personas? Quienes tengan varios dispositivos de Apple serán los que más se beneficien de las bondades compartidas que se logran entre todos los equipos. De todas formas, el iPhone 4S es un teléfono tope de línea que irá bien con cualquier usuario, en especial con quienes viajen constantemente.
 
-BlackBerry Bold Touch 9930
93
BlackBerry-Bold.jpg
Blackberry no ha tenido un buen año, perdiendo terreno frente a Apple y Samsung, sin embargo, aún es la preferida en las empresas y en Latinoamérica continua reinando por sobre cualquier otra empresa de teléfonos móviles.
 
El modelo Bold Touch 9930 es el más evolucionado con que la empresa cuenta para quienes aún no quieren separarse de su teclado QWERTY, pero también necesitan la rapidez y versatilidad del touch.
 
La 9930 posee una pantalla de 2,8 pulgadas (más pequeña que los otros teléfonos debido al espacio que usa el teclado físico), en una carcasa de 115x66x10.5mm, pesando todo 130g. Esto indica que el equipo es bastante portátil y fácil de llevar, ideal para quienes aún no se acostumbran a los grandes tamaños de los smartphones.
 
El procesador es un QC8655 de 1,2Ghz, por lo que no tiene nada que envidiarle a los teléfono tope de línea y podrá desempeñarse sin problemas con todas las aplicaciones del mercado.
 
Tiene capacidad Wi-Fi 802.11 b/g/n, y puede alcanzar velocidades de hasta 14.4Mbps utilizando la red HDSPA 3G, además de contar con Bluetooth y chip NFC, una de las tecnologías más recientes y que permiten pagar en distintos comercios de forma rápida y fácil con programas como Google Wallet.
 
Tiene una cámara trasera de 5Mp y flash LED, que sin ser muy poderosa puede captar video a 720p. No tiene cámara frontal así que videollamadas no son una opción.
 
¿Para qué tipo de personas? Blackberry siempre se ha destacado por su seguridad, por lo que las empresas prefieren sus equipos prefieren para los trabajadores. Por otro lado, el teclado físico aún es más rápido a la hora de escribir que los táctiles, y quienes no tienen experiencia con estos últimos suelen estar más cómodos con los físicos.
 
-Xperia Arc S
94
Xperia Arc S
-Sony Ericsson se ha visto inestable en el mercado de los teléfonos móviles, pero su marca de diseño y desempeño aún los mantienen competitivos y la última oleada de modelos han corregido los problemas de las versiones anteriores y están levantando nuevamente las ventas.
 
El Xperia Arc S es la actualización del Arc y tiene lo último de la tecnología disponible para celulares. Con dimensiones de 125x63x8,7mm, es comparable en tamaño al Galaxy S II, por lo que se instala en los teléfonos 'grandes'.
 
Cuenta con una pantalla táctil de 4,2 pulgadas, resistente a las rayas y oleofóbica, por lo que no se mancha con huellas dactilares fácilmente.
 
A nivel de procesamiento, es uno de los más rápidos, contando con un procesador Snapdragon Scorpion de 1,4GHz, diseñado por Qualcomm, y con una de las mejores tecnologías de procesamiento paralelo de esta generación, además de un procesador gráfico Adreno 205, que le da mucho poder a su apartado gráfico, pudiendo correr los juegos más exigentes y sacar fotos en 3D sin mayores problemas.
 
A nivel de conectividad cuenta con Wi-Fi 802.11 b/g/n, DLNA (que le permite conectarse a televisores y consolas de videojuegos para mostrar contenido), y también funciona como hotspot Wi-Fi, pudiendo compartir internet con varios dispositivos.
 
Tiene una cámara de 8MP con flash LED, que además de contar con una de las mejores imágenes a nivel de celulares, puede tomar fotografías en 3D, con un sistema llamado 3D sweep panorama. Lamentablemente, no puede grabar video en 1080p y sólo llega a 720p a 30fps. Tampoco posee cámara frontal.
 
¿Para qué tipo de personas? El Xperia Arc S tiene un diseño elegante y varios colores a elegir, por lo que los que gusten del diseño lo preferirán. Más allá de eso, está equipado con algunos de los mejores componentes del mercado y se comporta muy bien a la hora de reproducir contenido 'por aire' en televisores y computadores, así que el uso en la casa es completo.

viernes, 11 de noviembre de 2011

Cuatro cámaras EVIL ultrarrápidas para fotografía deportiva


Cámaras EVIL rápidas



Aunque últimamente las cámaras convencionales parecen cada vez más amenazadas por los móviles, determinadas situaciones siguen requiriendo de la óptica y prestaciones que sólo podemos encontrar en una cámara hecha y derecha. La fotografía deportiva es una de esas situaciones.


A continuación os ofrecemos una selección de cámaras micro cuatro tercios que destacan, entre otras cosas, por su rapidísima velocidad a la hora de tomar fotos. Cualquiera de ellas es ideal para inmortalizar deportes de aventura como el puenting, el barranquismo o intentar bañar a un niño particularmente inquieto.


Antes de comenzar, hay que mencionar que, para que una cámara sea rápida, lo importante es fijarse en la velocidad de obturación, una cifra expresada en quebrados como 1/1000 o 1/2000 que indican la fracción de segundo máxima que tarda la cámara en abrir y cerrar su diafragma.


Aunque, en teoría, una velocidad de obturación fuera capaz de tomar una imagen en una milésima de segundo, la cámara necesita hacer más funciones en ese segundo. Necesita enfocar la imagen, procesar la luz que le llega y guardarla en un archivo, de ahí que las velocidades en ráfaga de una cámara doméstica sean mucho menores que 1/4000 y dependan también del sistema de enfoque y del procesador.


Es importante tener en cuenta que una cosa es que la cámara sea rápida y otra muy distinta que esa función sea fácil de utilizar. En las cámaras compactas, generalmente, los modos de disparo están tan automatizados que a veces es difícil encontrar la opción para priorizar la velocidad de obturación. El camino más corto para ello suele ser seleccionar modos deportivos, pero estos modos funcionan en ráfaga, con lo que tendremos que acostumbrarnos desde ya a seleccionar la mejor foto de una serie y disponer de tarjetas de memoria amplias.


En las cámaras DSLR o EVIL, la máxima velocidad de obturación puede seleccionarse en alguno de los modos manuales. Es posible que tengamos que trastear un rato con la cámara para encontrar la manera más cómoda de llegar a ese punto. De todos modos, explorar las posibilidades de un gadget siempre es recomendable.


Otro elemento a tener en cuenta es que la velocidad de obturación implica que el sensor tiene muy poco tiempo para captar luz. Esto es un inconveniente en ambientes oscuros donde, a menos que la cámara tenga una óptica amplia que deje pasar bastante luz y un sensor de buen tamaño, las imágenes saldrán bastante oscuras. Para nuestra selección hemos intentado buscar un equilibrio entre estos factores. Vamos con nuestras propuestas a las que, como siempre, podeis añadir las de vuestra propia cosecha.


Panasonic Lumix GX1


Comenzamos con una recientísima incorporación al catálogo de las Lumix que acompaña a la Lumix G2. La Panasonic Lumix GX1 es capaz de tomar hasta 20 fotografías por segundo en modo ráfaga y bajando su resolución a 4Mpx. En 16Mpx completos su velocidad se reduce a 4.2 fotos por segundo, que no está nada mal, gracias a su procesador Venus Engine de última generación.


Cámaras EVIL rápidas


Un detalle interesante en fotografía deportiva es que la Lumix GX1 incorpora un modo AF Tracking de enfoque contínuo que sigue a los objetos en movimiento y presta una muy buena ayuda en fotos deportivas. La cámara tarda sólo 0,09 segundos en enfocar una imagen. La GX1 llegará al mercado en diciembre a un precio a partir de los 650 euros.


Olympus Pen E-P3


De nuevo, buscamos la máxima velocidad de enfoque en una micro cuatro tercios de objetivos intercambiables con la Olympus Pen E-P3. Olympus ha trabajado, en este modelo de la gama pen, en mejorar el sistema de enfoque para hacerlo más ágil (0.2 segundos de media) y, de nuevo, capaz de seguir objetos en movimiento.


Cámaras EVIL rápidas


A nivel de velocidad de obturación, la Pen E-P3 es capaz de sacar una imagen en un máximo de 1/4000 segundos. Su peor marca en materia de velocidad es la ráfaga, sólo 3 fotos por segundo a máxima resolución. Curiosamente, modelos anteriores como la E-P1 son más rápidos en ráfaga y se pueden encontrar más baratos, aunque su enfoque es más lento.


Sony Nex 7 o Nex 5N


Sony está devorando el mercado de cámaras y la culpa la tienen modelos tan salvajes como la Sony Nex 7. En el apartado velocidad, la NEX 7 tiene una velocidad máxima de obturación de 1/4000. El procesador Bionz de la compañía convierte esta cifra en ráfagas de hasta 10 fotos a máxima resolución. A tener en cuenta que ‘máxima resolución’ en esta cámara es nada menos que 24 megapíxeles, una bestialidad.


Cámaras EVIL rápidas


El enfoque también es ultrarrápido y la cámara arranca en sólo 0.02 segundos. La contrapartida a tanto lujo es un precio más cercano a las réflex de alta gama que a las cámaras domésticas. Si no nos importa bajar la resolución a ‘sólo’ 16Mpx, la Sony NEX 5N es igual de rápida (tiene el mismo procesador Bionz) y bastante más barata.


Samsung NX 200


La última incorporación de Samsung en materia de cámaras Micro cuatro tercios es la Samsung NX 200, sucesora de la NX 100. La coreana parece quetrer seguir la huella de Sony en algo más que el nombre y esta nueva cámara es capaz de tirar hasta 7 disparos en ráfaga por segundo a máxima resolución (20 mpx).


Cámaras EVIL rápidas


La mala noticia es que al de 9 disparos necesita unos segundos para coger aliento, pero no deja de ser una cifra impresionante. El enfoque, como no, también es rápido y sigue los objetos en movimiento.

Panasonic ToughPad A1 y B1, las tablets indestructibles


Panasonic ToughPad A1 y B1



Si alguien estaba buscando una tablet resistente, que pregunte a Panasonic, una de las grandes de la electrónica que se ha permitido el lujo de mirar al fenómeno Android desde fuera, y que ahora se mete de lleno en él con dos tablets todo terreno.


No sólo no hay jugado con Android, sino que tampoco le había dado mucha importancia al nuevo mercado de las tablets, y la verdad es que lo que nos presentan tampoco es un dispositivo para todos los públicos, por precio y por sus singulares características. Vamos a ver el vídeo de presentación de las Panasonic Toughpad A1 y B1:


Creo que el vídeo necesita pocas explicaciones, tablets destinadas a trabajar con ellas, sin importar las condiciones en la que lo hagamos. Cuentan con certificación militar en Estados Unidos, y son especialmente resistentes a las temperaturas, caídas, y chorros de agua.


Las dos versiones se diferencian únicamente en el tamaño de pantalla, 10.1 pulgadas para la A1, y 7 pulgadas para la B1, ambas con soporte para stylus. No han descuidado las especificaciones comunes:



  • Sistema operativo Android 3.2 Honeycomb

  • Resolución XGA (1.024 × 768 píxeles)

  • Procesador de doble núcleo Marvell a 1.2GHz

  • 1 GB de RAM

  • 16 GB de memoria interna, ampliable vía MicroSD

  • Cámara de 5 megapíxeles, y frontal de 2 megapíxeles

  • Salida HDMI


  • Conectividad LTE o WiMAX, además de WiFi y GPS

Panasonic ToughPad A1 y B1


Hasta aquí todo muy bonito, pero las Panasonic Toughpad A1 y B1 tienen un precio que asusta, por una parte lógico debido a su resistencia. El modelo de 10 pulgadas saldrá al mercado norteamericano en primavera de 2012 por 1299 dólares.

articulos de tecnologia, noticias tecnologicas, tecnología , articulos de ciencia y tecnologia, articulo de tecnologia, articulos sobre tecnologia, concepto de tecnologia, avances tecnologicos, nuevas tecnologías, novedades tecnologicas, la tecnologia, ultimas tecnologias, tecnologia de punta, articulos tecnologia, noticias de tecnología
Twitter Delicious Facebook Digg Stumbleupon Favorites More