BANNER

miércoles, 31 de agosto de 2011

10 consejos prácticos a la hora de seguir empresas en Twitter


Aunque Twitter está lleno de empresas, el servicio no fue pensado para diferenciar entre distintos tipos de cuentas. En la práctica, un usuario personal puede hacer exactamente lo mismo que las cuentas de empresas. No hay beneficios extras, ni páginas de compañías en Twitter.

USB Minobots de Transformers

¿Quién no ha visto aunque sea una película de los Transformers?, o al menos ¿quién no ha oído hablar de ellos?, estoy seguro que ninguno, ahora más con la última película estrenada, Transformers: El lado oscuro de la Luna; bueno, para los verdaderos fanáticos de esta película y para los que llegaron a verla, ha salido un nuevo un nuevo USB Minobot de los Transformers.

Estos minobots usb tienen la figura de los líderes de los Autobots y los Decepticons, Optimus Prime y Megatron, pero lo mejor de esto es que además de que tienen la forman de los transformers, dentro del USB viene incluido una serie de contenido, como: cómics, videos, fondos de pantalla, avatares e iconos de escritorio.

Cada minobot están disponibles en las capacidades de 2GB, 4GB, 8GB, y 16GB, lo puedes conseguir en Minoco, desde $23 hasta $60 según sea la capacidad de almacenamiento que elijas. Yo me apunto para uno.

sábado, 27 de agosto de 2011

Historia de la Educación Inicial en el Perú

Colegio de inicial en las alturas de Carabayllo (Ya no existe)

La educación del niño menor de seis años en el Perú surge por iniciativa privada la cual ve la necesidad de brindar apoyo a los hijos de madres obreras. Es así que la primera referencia sobre programas en educación inicial es la fundación de La Sociedad Auxiliadora de la Infancia en 1896 basadas en didácticas europeas. Creada por Juana Alarco de Dammert, estaba dirigida a apoyar a niños de bajos recursos especialmente hijos de madres trabajadoras, dándoles la oportunidad a jóvenes limeñas a poder realizar una obra social diferente.

Más adelante en 1902 la maestra Elvira García y García cofundadora de la sociedad antes mencionada creo el primer kindergarten para niños de 2 a 8 años. Su inquietud por la infancia la hace difundir sus estudios dando a conocer la importancia de la educación en niños en edad temprana basándose en métodos Fröebel y Montesori.

En 1902 la misma señora Juana Alarco de Dammert estableció la Cuna Maternal. La cual fue destinada a dar educación, cuidado y alimentación a los hijos de madres obreras a los que se cuidaban de 8 de la mañana a 5 de la tarde.
En 1921 llegan de Europa las hermanas Emilia y Victoria Barcia Boniffatti especializadas en Educación Infantil a Iquitos.

En 1930 el gobierno peruano se comienza a interesar por la educación Inicial intentando establecer jardines de infancia con carácter estatal. Esta tarea fue encargada por Resolución Suprema Nº 589, a las profesoras Victoria y Emilia Barcia Boniffatti, quienes inician su labor el 25 de Mayo de 1931. A partir de esa fecha, con la denominación, Educación Preescolar se inicia la atención de los menores de 4 y 5 años. Ellas formularon propuestas en la educación que incluían a niños desde el segundo año de vida. Sin embargo se tuvo que esperar muchos años para que el estado definiera el plan educativo.

En el año 1971, por Decreto de Ley Nº 19326, a partir de los resultados de una evaluación diagnóstica se crea la Educación Inicial, como primer nivel del sistema educativo. Este conlleva un enfoque innovador con la finalidad de construir las condiciones necesarias para el desarrollo integral del niño de 0 a 6 años. La educación resalta la importancia que en la vida del ser humano tiene la atención integral del niño en sus primeros años. Siendo por esto que se crea la nueva estructura:

- Cunas de 0 a 3 años,
- jardines de 3 a 6 años.

Mas adelante se pudo observar que a pesar de los esfuerzos realizados la cobertura en zonas rurales no había sido la suficiente. Por este motivo la Dirección de Educación toma la experiencia realizada por Caritas, en 1965, en el Departamento de Puno, el cual realiza un trabajo de promoción social con madres que asisten con sus hijos. Por ello en 1968 se organizan las primeras Casas de Niños (wawa wasi). El programa ofrece actividades de recreación, cuidado y alimentación para los niños. Naciendo así los primeros proyectos experimentales de educación inicial no escolarizada, los que luego se extienden por todo el país.

Los caminos que conducen a la Singularidad

La Singularidad Tecnológica es el hipotético evento que se dará cuando la tecnología supere a la inteligencia humana, una teoría que mi compañero Alan nos explicó ayer. La Ley de Moore, que es una de las bases de esta creencia, junto con los avances tecnológicos, hacen pensar que la Singularidad podría estar más cerca de lo que pensamos o, al menos, si no está cerca quizás nos estemos encaminando hacia ella. Según el escritor Vernon Vinge, son cuatro los caminos que podrían llevar a la humanidad a este punto de ruptura llamado Singularidad y, aunque algunos de ellos rocen la ciencia-ficción, otros, sin embargo, suenan bastante familiares y cualquiera podría pensar que ya hemos empezado a andar por dicha senda.
Según este autor, a la Singularidad podríamos llegar por cuatro vías:
  • El desarollo de una computadora que alcance el nivel de la inteligencia humana y que, posteriormente, llegue a superarla por su propio aprendizaje, algo que se ha denominado superinteligencia artificial
  • El desarrollo de redes de ordenadores que lleguen a funcionar como neuronas de un cerebro distribuido que llegue a tomar consciencia y se despierte como un único ente inteligente, también denominado superinteligencia colectiva
  • El desarrollo de elementos de interacción con computadoras que permitan al ser humano comportarse como un ser superinteligente, conocido como superinteligencia híbrida
  • Manipulaciones biológicas que permitan mejorar en algunos seres humanos su nivel de inteligencia, es decir, la superinteligencia biológica.
Vamos a analizarlas en mayor profundidad y analicemos si la humanidad ha comenzado a caminar, o no, por alguna de estas sendas.

Superinteligencia Artificial


La Superinteligencia Artificial se daría en el momento en el que se crease una inteligencia superior a la de la raza humana, es decir, que estaríamos en un momento tecnológico en el que el ser humano habría sido capaz de construir una inteligencia artificial que, al menos, lo igualase y que, por su propio aprendizaje, llegase a superar al ser humano.

Para llegar a este punto, la tecnología, además de crear computadores muy potentes, también debería soportar algoritmos de computación que permitiesen codificar la consciencia humana y llevarla a un soporte digital. Actualmente, nos movemos en un entorno tecnológico en el que aún se sigue cumpliendo la Ley de Moore y, por tanto, se siguen fabricando computadores cada vez más potentes pero que, a su vez, ocupan menos espacio y consumen menos energía; sin embargo, nuestra capacidad de programación de algoritmos sigue estando algo limitada.


Muchas veces, al ver alguna noticia relacionada con la robótica y la inteligencia artificial, se piensa en la Singularidad, sin embargo, desde la perspectiva de la Superinteligencia Artificial, aún nos queda mucho camino que recorrer. Nuestros engendros mecánicos basados en redes neuronales, siguen respondiendo ante una colección de patrones programados que, por ahora, sigue siendo bastante simple. Los ejemplos del robot-enfermero o el asistente de Robots para la Humanidad nos demuestran que aún estamos algo lejos de esa meta.
De hecho, para llegar a la Singularidad a través de la Superinteligencia Artificial, hemos de ser capaces de crear un computador capaz de igualar al cerebro humano y dotarlo de la misma o mayor capacidad de aprendizaje; sin embargo, un millón de procesadores ARM reproducirán un 1% del cerebro humano.


Superinteligencia Colectiva


La Superinteligencia Colectiva se define como una red de computadores que forman una inteligencia colectiva que se encuentra repartida en diversos nodos formando un cerebro distribuido, siguiendo las pautas del filósofo Pierre Lévy que define la inteligencia colectiva como la colaboración y el concurso de muchos individuos que comparten conocimiento.




Precisamente estamos en la era de la Sociedad de la Información y el Conocimiento, donde la red está siendo un punto de unión importante entre los seres humanos y que, además, contiene una cantidad de información que la hace ver como un gran cerebro global. Tengamos en cuenta que para este año 2011 se espera que se generen contenidos que sumarán 1.8 Zettabytes (18.000 millones de TB), cantidad que se duplicaría cada dos años. Por tanto, gracias a esta cooperación surgida gracias a Internet, los humanos hemos tejido una enorme red de de conocimiento que se apoya, precisamente, en computadoras que los almacenan.
¿Estamos siguiendo la senda de la Superinteligencia Colectiva? Aún no está del todo claro, sin embargo, muchos expertos piensan que estamos generando un caldo de cultivo gracias a la red que sí que podría propiciarlo, si bien, actualmente este conocimiento anda algo disperso y desordenado, algo que podría cambiar con la llegada de la Web Semántica que sí podría suponer la confirmación de la andadura de este camino.
Aún así, no solamente la llamada web colaborativa propicia este camino, la computación distribuida también es un indicativo de que esto podría pasar, algo que vimos el otro día con el robot del Instituto Tecnológico de Tokio que podía recibir las rutinas aprendidas por sus iguales y aplicarlas a su contexto de funcionamiento.
Por tanto, si sumamos todo el conocimiento que existe en la red (y que se duplica cada dos años) y que estamos experimentando con computadoras que son capaces de adquirir y utilizar este conocimiento, parece que tenemos los componentes que iniciarían esta ruta.


Superinteligencia Hibrida


Se dice que la Superinteligencia Híbrida es la interconexión física entre humanos y computadoras, es decir, el mito del Cyborg o de la fusión entre seres humanos y máquinas. Aunque suena a ciencia-ficción y hablar de implantes electrónicos podría sonar a fantasía, realmente, no es tan fantasioso como podría parecer.
Está claro que aún no hemos llegado a la fusión de la consciencia humana con un computador, es decir, que un computador controle a un ser humano ni a la simbiosis de éstos, sin embargo, sí que estamos viendo cómo se implantan algunos componentes electrónicos en seres humanos: implantes cocleares para sordos, marcapasos para enfermos cardíacos o guías para invidentes, elementos que son capaces de complementar a un ser humano.
Si bien la Singularidad implica que seres humanos y máquinas se fusionen, una fusión que debe dar lugar a un ente superior que trascienda a la condición humana y que de lugar a una especie nueva, algo a lo que no hemos llegado ni creo que lleguemos todavía, puesto que estamos centrados en dotar a nuestros iguales de elementos que les doten de una mejor calidad de vida; en definitiva, estamos centrados en un Desarrollo Sostenible que no busca superar al propio ser humano.



Superinteligencia Biológica


La Superinteligencia Biológica sigue vinculada a la tecnología pero no a la computación puesto que busca la superación de la inteligencia humana mediante la creación de un ser humano avanzado que sea mucho más inteligente y superior al resto. Es decir, este camino a la Singularidad estaría asociado a la ingeniería genética y a la bioingeniería.
Y aunque parezca sacado del Tercer Gemelo de Ken Follet, desgraciadamente, la humanidad vivió tiempos oscuros donde se apostaba por razas superiores y en la que primó la Eugenesia como doctrina del Estado. Me refiero a la experimentación genética de la Alemania Nazi, encarnada en Josef Menguele que sí que hizo que la humanidad enfilase este camino hacia la Singularidad con una macabra ruta.

¿Dónde estamos?


Si la Singularidad es o no una utopía, posiblemente, sea bastante pronto para decirlo, lo que sí que es cierto es que el ser humano sí que ha bailado con las cuatro rutas que conducen a ella, encontrándose en un punto tecnológico que es muy proclive a dos de ellas.
¿Apostará el ser humano por un Desarrollo Sostenible evitando en todo momento cruzar la línea de la Singularidad o la ambición humana cruzará esa línea? El futuro nos lo dirá.

Elefante hace un taburete: primera evidencia de que los paquidermos pueden resolver problemas mentales

Un hecho insólito ocurrido hace escasos días podría revelar la primera evidencia de que los paquidermos pueden resolver problemas mentalmente. La solución alcanzada por Kandula da una idea a los científicos de hasta donde podría llegar el mapa mental de la especie, construyendo todo un plan resolutivo para alcanzar su objetivo.

Ocurrió durante el estudio de Kandula, elefante de 7 años que se encontraba ansioso por llegar a una fruta que se encontraba en la rama de un árbol. Al ver que no podía acceder hasta la fruta, y aparentemente pensando cómo podría solucionar el “enigma”, Kandula cogió un cubo de plástico y lo acercó hasta la rama para obtener la fruta con la trompa. Este mecanismo, una hazaña, lo llegó a repetir durante los días siguientes.

Los investigadores del zoológico de Washington jamás habían visto a un elefante mover un objeto y poner la pata sobre el mismo para obtener elementos. Este dato, tan común para muy pocas especies hasta ahora —solamente el ser humano, los chimpancés y los cuervos habían mostrado esta capacidad— , sitúa el estudio del compartamiento de los paquidermos y su capacidad de análisis y resolución en un nueva vía.
Hablamos de la capacidad del conocimiento espontáneo, la capacidad de, en un momento dado, averiguar mentalmente la solución a un problema físico.

Los investigadores pasaron entonces a darle diferentes objetos como palos para que los pudiera utilizar como medio para llegar a la fruta, y aunque en un principio se mostró reticente, Kandula acabó utilizando los palos para llegar hasta su objetivo. Reiss, investigador del Hunter College, lo explicaba así:
El elefante no trató de utilizar la herramienta para llegar a los alimentos durante siete sesiones de 20 minutos en siete días. Pero de repente, le llegó como una especie de revelación y consiguió el objetivo. No podemos estar dentro de su cabeza, pero el hecho sugiere que él estaba imaginando la solución
Para Waal, investigador de la Universidad de Emory, el hallazgo:
Es una prueba más de que los elefantes están a la altura de otros grandes cerebros animales en lo que respecta a la comprensión de la causa-efecto y la solución de problemas mentales
Quizá Kandula era más inteligente que el resto. El experimento luego pasó a llevarse con otros dos elefantes más viejos que Kandula. Ninguno de los dos reaccionó al problema que se le presentó. Claro que también podría deberse a que no les interesara o debido a la longevidad de ambos. En cualquier caso nos encontramos ante un comportamiento que abre las puertas a una mejor comprensión de la especie y sus límites. Les dejo con una imágenes del, posiblemente, elefante más inteligente de la Tierra.

Los videojuegos violentos trastocan la moralidad de los niños, dice un estudio

Todo el mundo preocupado porque los videojuegos violentos acaben fomentando tal clase de actitudes en sus hijos (algo que aún está por demostrarse resolutoriamente) y ahora resulta que la amenaza podría ser aún mayor. Puede que no tan explícita, pero no por ello menos dañina.
Siempre se ha dicho que la manifestación emocional, a fin de cuentas, resulta positiva y que los manicomios están llenos de quienes un buen día emprendieron el tortuoso camino de la represión sentimental. Así, mucho peor que un niño actúe de forma violenta, es que lo haga con el convencimiento de que es lo correcto. No hablemos ya si semejante cambio perceptivo pasa inadvertido a ojos de sus padres.

Es la base de un interesante estudio llevado a cabo por Edward T. Vieira, profesor del Simmons College Communications, publicado en la última edición del Journal of Children and Media. La conclusión ha sido que los juegos violentos socavan la moralidad de los niños expuestos, esto es, inciden muy directamente en su desarrollo.

Tomada una muestra de niños comprendida entre los 7 y los 15 años y consideradas variables como edad, género y capacidad de simpatización, la investigación demuesta que los videojuegos de temática violenta pueden terminar improntando en el niño la idea de que ciertos tipos de violencia son aceptables:
El estudio confirmó que los niños pasan el doble de tiempo jugando a juegos violentos que las niñas y que el riesgo a una desensibilización también se duplica en consecuencia.
Vieira dictamina además que los usuarios de temprana edad acaban por considerar que el acto violento carece de consecuencias, algo que se dará en mayor medida ante casos de pobre comunicación parental o amistades poco convenientes.

¿La solución? Dice el profesor que los videojuegos, aunque no deberían dejar de reflejar esta clase de realidades, sí que necesitarían hacerlo también desde la perspectiva de las víctimas. Que no encarnemos sólo a quienes aprietan el gatillo, sino también al que recibe el balazo, lo que suena a carnaza para gurús como David Cage, padre de esa emocional propuesta llamada Heavy Rain.

Comentarios de Charlie Li

A veces siento que los padres quieren buscar un culpable común. Pero son los que más culpa tienen. Y si no son ellos, es indirectamente, por no poner atención a sus hijos (malas compañías & stuff)
El criterio y la madurez de cada persona, sea niño o adulto es lo que le permitirá diferenciar si un acto que ve en un videojuego es bueno o malo.

Estudio señala que la edad no influye en el aprendizaje de idioma

Todos los que hemos intentado aprender un idioma nuevo durante nuestra etapa adulta sabemos que es una tarea bastante complicada. “Ojalá me hubieran metido a estas clases cuando era niño”, nos repetimos mientras intentamos recordar las palabras de un lenguaje ajeno. Pues la idea de que los niños aprenden más fácil un idioma podría ser un mito, de acuerdo con una investigación de la Universidad de Haifa, en Israel.

La creencia popular está respaldada en que los niños se encuentran en una fase de aprendizaje en la que absorben fácilmente los conocimientos que se les imparten. Eso es cierto: durante la infancia, nuestra habilidad cognitiva nos permite aprender rápidamente. El caso de los idiomas es uno de los ejemplos paradigmáticos, pues si a un niño se le dan clases, es capaz de hablar y comprender ese lenguaje en un tiempo más corto —a veces, en tan sólo semanas— que el que requiere
De hecho, la investigación de la Universidad de Haifa señala que para un adulto sería más fácil aprender un idioma. La razón está en que, a partir de cierta edad —los 12 ó 13 años—, intentamos comprender las reglas que rigen al lenguaje.

 En un experimento, se sometió a tres grupos al aprendizaje de una nueva regla: un conjunto era de niños de 8 años, otro de jóvenes de 12 y otro de adultos. Esta norma era completamente ficticia: los verbos de cierto idioma eran pronunciados de una manera cuando se referían a un objeto animado y de otra forma cuando señalaban a un objeto inanimado. Es como si pronunciáramos de forma distinta el verbo “comprar”, dependiendo la situación (“Juan compró un helado” contra “Juan cómpro un gato”).
A ninguno de los participantes se les explicó esta regla. Después de la clase, se les dio una lista de verbos y se les pidió que los pronunciaran de acuerdo a otra lista de palabras —en nuestro ejemplo, en lugar de comprar un helado o un gato, sería un libro y un ratón—. Los resultados arrojaron que los jóvenes de 12 años y los adultos acertaron en 90%, mientras que los niños de 8 años prácticamente respondieron al azar.
 Es decir, como adultos tenemos mayor facilidad para comprender las reglas implícitas en un lenguaje extraño.

Entonces, ¿por qué nos cuesta tanto trabajo? La respuesta a esta duda podría ser un factor social. Al parecer, existe una tendencia más favorable a la corrección de errores en niños, ya que los adultos suelen no ser tan abiertos a la crítica. Así, el método educativo que se usa en la infancia garantiza mayor éxito, porque el adulto no recibe tanta retroalimentación de sus equivocaciones, además de ser más renuente a enmendarlas.

 De ser cierto lo que sostiene este estudio, la edad sería sólo un pretexto para no aprender un nuevo idioma. Así que, estimado lector, no pierda la esperanza: ¡aún está a tiempo de convertirse en el políglota que siempre quiso ser!

COMENTARIOS DE CHARLIE LI

Eso es muy cierto, a los niños siempre los estan corrigiendo y pues cuando estas grande te da verguenza equivocarte frente a alguien al hablar xD asi que aprendes mas lento...

miércoles, 24 de agosto de 2011

Linus Torvalds: “Linux compite consigo mismo, no con Windows”

Pragmático. Así es Linus Torvalds, el hombre que con poco más de 20 años de edad, y hace 20 años, creó Linux y luego dirigió su desarrollo hasta lo que hoy en día todos conocemos.
Pragmáticas también fueron sus respuestas para LinuxFr.org, en una de las entrevistas más interesantes y profusas que he leído del programador finés; una que les recomiendo leer de principio a fin, aunque ahora mismo quiero comentarles/compartirles un puñado de todas ellas.

Licencias de software y ética

Sobe la GPL y elegirla bajo la suposición de que es ética, dijo Torvalds que tenía una opinión negativa y otra muy personal. En primer lugar, dijo, desprecia
a las personas que intentan impulsar el uso de la GPL por una cuestión “ética” […] es una porquería absoluta. ¿Por qué? Porque la ética es un asunto privado. Cada vez que usas un argumento del estilo “alguien más debe” usar “algo”, no estás siendo ético, sino sólo un mojigato estúpido […]
(¿Alguien pensó en RMS?)
En lo que respecta a su opinión personal, Torvalds asegura que eligió la GPLv2 porque coincide con lo que hace y le gusta: programar, compartir código para que otros disfruten, esperar una retribución justa —compartir de igual manera— para continuar desarrollando. Otros prefieren licencias como la BSD, y “está bien; es su elección”.

Linux y el escritorio

Cada nuevo año será el año de Linux en el escritorio. Dicen. Mientras eso no sucede, Linux está listo para dominar casi cualquier otro ramo de la informática, entre ellos el cómputo móvil. Para Torvalds, desde el lado del kernel no hay mucho que hacer,
salvo continuar mejorando en general y asegurarnos de ser, ténicamente, la mejor opción.
Linus aprecia el alcance logrado por Android entre la masa principal de usuarios y apunta que el mercado del escritorio es difícil porque existen muchos “efectos de red” a su alrededor, en particular, aspectos sociales relacionados con la adopción de una nueva tecnología.

Linus, el creador

Linus creó Linux y Git. Ambos software con un impacto radical entre usuarios y desarrolladores. Git, por ejemplo, es la herramienta que revolucionó la forma de gestionar proyectos de software; plataforma de startups como Github, a su vez cuna de miles de proyectos de código abierto.
Para Linus, su mérito no tiene tanto que ver con genialidad como con obstinada persistencia. Y los hechos son claros. El hombre lleva la mitad de su vida liderando el destino de Linux de forma exitosa y legítima.

Linus y las patentes

Tengo que admitir que no me gustan las patentes […] Soy bueno en lo que hago; pienso que hay gente que es mejor cuando se trata de luchar en líos de patentes.

Android

A Torvalds no le entristece en lo absoluto que Android se un proyecto derivado de Linux —un fork—, de hecho piensa que es algo bueno porque es válido y enriquecedor.
Para mí, el asunto esencial del código abierto es su capacidad para derivarse (y también la habilidad para que los forks regresen con aportaciones, en caso de estar bien hechas).
Pienso que el fork de Android forzó a los desarrolladores del código principal a mirar con seriedad algunos de los asuntos que tiene Android […] Eventualmente, espero (y pienso), Android regresará al código principal del kernel. Pero probablemente tomará tiempo y mayor esfuerzo.

Windows

Y aquí va el titulo de este post, que evidencia lo que digo sobre Torvalds, quien directo, llano, dice que la dirección de Linux no sigue de ninguna manera los pasos del Windows de Microsoft. Linus sólo quiere que Linux mejore.


Comentarios de Charlie Li (Tecnico en Hardware)

Personalmente me gusta la opinion de Linus Torvalds y me parece tener una mente mas abierta y mas consecuente con lo que nos gusta a los usuarios de Linux y el software libre en general. Me parece muy importante el hecho de que no se trate de competir con windows sino mejorar Linux, aun falta mucho por hacer y todo se ve muy prometedor en cuanto al futuro del kernel de Linux y se que poco a poco los usuarios se darán cuenta de todo lo bueno que conlleva el uso de Linux y software libre en general…

Microsoft quiere parar la pirateria de Windows con la nube, ¿lo lograrán?

No es la primera vez que Microsoft idea un sistema con el que parar la piratería que sufre su sistema operativo desde hace muchos años. Se ha hablado mucho sobre esta, de si realmente es un perjuicio para ellos por las licencia que dejan de vender o si por el contrario, les genera más beneficio a pesar de no tener esos ingresos. Sea como fuere, en Microsoft parece que intentarán de nuevo reducir el número de copias piratas de Windows y para ello usarán la llamada nube.

El caso es que en una de las últimas builds desarrolladas por Microsoft hay el rastro del que parece será el sistema de validación de Windows 8. Básicamente el número de serie para validar la instalación el sistema operativo se podrá obtener únicamente desde los servidores de Microsoft, por lo que la tarea de piratear Windows se volvería un poco más complicado de lo que actualmente es.

A además de esto cabe otra posibilidad, para detectar las instalaciones que hayan podido sobrepasar el anterior escollo. En el nuevo sistema de arranque rápido de Microsoft, cabe la posibilidad de que el sistema operativo se conecte con los servidores de la empresa de Redmond y en caso de detectar una instalación no valida podría bloquear el sistema operativo o limitar las funcionalidades, anunciando al usuario que su copia de Windows no es original, como lo hace actualmente.

¿Será esto suficiente para rebajar la piratería de Windows? Desde mi punto de vista, me parece bien que desde Microsoft quieran defender su negocio y por ello quieran luchar contra la piratería, que está muy extendida en su sistema operativo. Pero este sistema no será para nada perfecto y con el tiempo, ya sea más o menos, sucederá lo que ha pasado hasta ahora: saldrá alguna herramienta que permita esquivar estos sistemas.

Probablemente estos sistemas compliquen la forma de piratear el sistema operativo, pero personalmente tengo serias dudas de que un sistema operativo sea 100% infalible contra la piratería. En definitiva, como ya comenté hace unos días, opino que lo mejor que puede hacer Microsoft es bajar el precio de Windows, lo cual probablemente pueda ser más efectivo que desarrollar complicados sistemas antipiratería que a la larga probablemente sean sobrepasados.

La guerra de los móviles de bajo costo

Las economías emergentes son el nuevo objetivo de los fabricantes de móviles. Enfrascados durante muchos años en una pelea titánica por ganar el mercado de los smartphones, los países en vías de desarrollo fueron desatendidos como mercados potenciales. Ahora que el pastel de las naciones del Primer Mundo está bien dividido, es lógico que las empresas se fijaran en regiones como América Latina, Europa Oriental, Medio Oriente, Asia y África.

Como latinoamericanos, entendemos perfectamente cuál es la coyuntura de este mercado. El poder adquisitivo de los ciudadanos en economías emergentes no es tan poderoso como el de los países desarrollados; además de que la riqueza tiene una distribución menos equitativa. Esta situación provoca que sólo un sector reducido de la población sea capaz de acceder a productos tecnológicos que, dadas las circunstancias, son considerados como un lujo. Si a este cóctel le aumentamos las brechas tecnológicas o la escasez de oferta, entendemos por qué, a priori, las marcas no estaban tan interesadas en este sector.

En el caso de los móviles, una buena parte del mercado aún está denominado por los terminales de baja gama. Si bien los avances en conectividad —como el protocolo 3G— o la integración de servicios en un solo aparato han ayudado a la popularización de los smartphones, el precio continúa como una barrera importante. Amén de sus ventajas en durabilidad o estabilidad, el costo es uno de los principales argumentos para que los móviles de baja gama sigan como una opción fuerte dentro de varios países.
Aunque estas ventas son menospreciadas por muchos de los analistas, las economías emergentes sirven para explicar algunos fenómenos en el mercado móvil. Por ejemplo, la caída de Research In Motion —estrepitosa, para muchos de los expertos— ha sido amortiguada por un inexplicable repunte en países de América Latina. La razón es que los teléfonos BlackBerry (sin ser terminales de gama baja per se) ofrecen una opción muy barata y más popular para los usuarios que optan por un smartphone. Por ejemplo, en México, proveedoras como Telcel o Iusacell ofrecen los equipos de forma gratuita con la contratación del plan telefónico —una amortización de costo que no han podido emular con el iPhone u otros terminales más costosos—.

Este ejemplo es muy explicativo porque nos muestra un detalle importante: no es que las economías emergentes no esté interesadas en los smartphones. El problema es que no pueden adquirirlos con facilidad. Los móviles de baja gama llenan un hueco en un nicho de mercado que pocos están atendiendo. La tardía entrada de los teléfonos inteligentes a estos países es entendible desde la perspectiva de sus redes. Ya que la conectividad a Internet es un factor fundamental para la adopción de smartphones, no contar con la infraestructura adecuada pudo retrasar este avance. Ahora que muchas naciones se ponen al día en este rubro —por lo menos, en América Latina— se ha creado un vacío en el mercado móvil.

Hasta ahora, son las marcas relativamente desconocidas las que se ha aprovechado de este nicho. En China e India, la penetración de smartphones es alta, pero casi todos, de fabricantes de poco renombre. En México, por ejemplo, la china Huawei o la francesa Alcatel han logrado ganarse clientes que tienen un poder adquisitivo menor a cambio de un terminal austero. El reciente anuncio de Apple para introducir un iPhone de bajo costo responde a esta necesidad. Aunque los de Cupertino están más enfocados en entrar en el mercado chino —una auténtica veta de oro esperando ser explotada— ésa sería sólo la punta de lanza para entrar en otras economías emergentes.

Claro, la competencia no podía quedarse con los brazos cruzados. Al anuncio de Apple hay que sumar a Nokia y a Samsung, quienes también prepararan nuevos terminales de bajo costo. Ambas empresas son las reinas de ese sector —seguidas de cerca por Huawei— y no quieren perder su puesto. Los coreanos planean introducir una serie de móviles accesibles a partir de su línea Galaxy (¿también recibirán demandas por esos?), también con la esperanza de atacar en China e India. Por su parte, Nokia también presentó tres móviles cargados con Symbian, aunque como un guiño a esta apuesta, Microsoft anunció Microsoft Phone Tango para terminales de gama baja.

Así que la arena está puesta. Es muy pronto para determinar un probable ganador, pero estoy muy seguro que la entrada de Apple supondría una fuerte sacudida para los bastiones de Samsung y Nokia. Al final, espero, el beneficiado deberá ser el consumidor final, quien verá llegar hasta sus países una opción a un costo asequible, aunque tenga que sacrificar algunas características. ¡Que comience la batalla!

martes, 23 de agosto de 2011

Científicos chinos estudian enviar una vela solar para desviar al meteorito Apophis

Un asteoride se acerca a la Tierra. La Humanidad está en peligro. La única esperanza es lanzar un misil contra él para destruirlo. Este argumento suena a ciencia ficción, pero es una de las posibilidades que contemplan los investigadores de la Universidad de Pekín ante el retorno de Apophis, un meteorito que podría chocar contra nuestro planeta en 2036. De acuerdo con los científicos chinos, una vela solar sería la opción ideal para desviarlo de nuestro vecindario.

Pero, ¿de dónde salió ese meteorito? Hagamos un poco de memoria. En 2004, tres científicos del Observatorio Nacional de Kitt Peak descubrieron este cuerpo celeste y trazaron su órbita. En julio de 2005 fue bautizado como Apophis, el nombre griego de un antiguo dios maligno egipcio —después trascendió que fue nombrado así por la serie de TV Stargate SG-1, donde Apophis es uno de los villanos recurrentes—. Este meteorito está catalogado como un asteroide tipo Apolo, denominación que reciben aquellos que pasarán lo suficientemente cerca de la Tierra como para ser visibles.

La fecha de la primera visita de Apophis será el 13 de julio de 2029. Sin embargo, existe la posibilidad de que pase cerca de un umbral gravitacional que lo redirija de vuelta hacia nuestro planeta, lo que podría provocar un impacto contra nuestro mundo en 2036. Aunque originalmente se había calculado una probabilidad de 1 en 45.000 de que la colisión ocurra, en 2009 la NASA predijo que es una posibilidad entre 250.000.

Por supuesto, para no dejar las cosas al azar, los científicos de la Universidad de Pekín proponen que se desvíe la trayectoria del meteorito antes de que llegue al umbral gravitacional. Para dicho efecto, la aeronave viajaría a 90 km/s para chocar con el asteroide, desviándolo lo suficiente para evitar su posterior regreso. Hay que considerar que el Apophis pesa cerca de 46 millones de toneladas y tiene un diámetro de 350 metros. Su impacto está calculado en 510 megatones, equivalente a poco más de dos veces la energía liberada por la erupción del volcán Krakatoa (200 megatones).

Además de los chinos y los rusos, otro proyecto que está muy interesado en la trayectoria de este meteorito es la misión Don Quijote, mediante la cual, la Agencia Espacial Europea pretende probar si es posible desviar un meteorito con la colisión de una nave. Esta misión, que vería la luz entre 2013 y 2015, tiene como objetivo de pruebas a Apophis. Aún si los cálculos posteriores indicaran que este asteroide no representa peligro para la Tierra, los científicos usarían el programa Don Quijote para determinar si podemos emplear —como en las películas— un cohete como la última línea defensiva de nuestro planeta.

Corea del Sur anuncia el desarrollo de su propio sistema operativo open source móvil

Así lo ha anunciado hace escasas horas el viceministro del Ministerio de Economía, Kim Jae-Hong, haciendo clara referencia al estado actual de los sistemas operativos móviles y al último movimiento de Google con la compra de Motorola, el cual ven como un competidor para los vendedores de smartphones del país en un futuro próximo. Se espera que el proyecto comience antes de que acabe el año.

El movimiento no sólo va encaminado a competir con Google, sino con Apple e iOS e incluso con la propia Samsung, fabricante del país cuyos smartphones corren en Android o bajo su propio sistema operativo Bada.
Para Kim Jae-Hong, la adquisición de Motorola por parte de Google, junto a los cerca de 17.000 patentes que va a adquirir, podría ofrecer protección a corto plazo para las empresas del país con Android en contra de las reivindicaciones de patentes de Apple, aunque no descarta que sea la propia Google la que se convierta en un futuro próximo como gran competidora con la venta de teléfonos.

Samsung, quién es el segundo mayor fabricante de teléfonos móviles, se encuentra actualmente en litigios de patentes con Apple, una dura lucha la que juegan estos días entre imágenes “modificadas” y acusaciones de copias de diseño por parte de los de Cupertino a los surcoreanos.
Desde el prisma de Corea del Sur, ésta situación cambiará a corto plazo con la llegada de Google, ya que se cree que las relaciones de cooperación entre Google, Samsung y LG continúen, aunque por lo que dice Jae-Hong, no por mucho tiempo .
Para Kim, el impacto de Google tras la compra de Motorola no descarta para nada que en un corto espacio de tiempo modifique su hoja de ruta pasando a ser un competidor en la producción de smartphones:

Google es un sistema open source, que puede cambiar a un sistema cerrado en cualquier momento. No podemos descartar que google dé el salto al negocio de los smartphones

Expuesta la situación, el gobierno hace el anuncio de este nuevo sistema operativo open source móvil, un proyecto que se espera que comience antes de finalizar el año y en el que todos los fabricantes del país de smartphones podrán desarrollar conjuntamente el SO junto a un sistema operativo basado en web.

¿Y qué dice Samsung a todo esto? Pues en palabras de Jae-Hong, la empresa mostró en un principio su reticencia al desarrollo de este nuevo sistema operativo abierto, pero al parecer ha cambiado su postura tras la fusión de Google con Motorola. Veremos en qué queda este anuncio del que no han dado cifras o nombre alguno.

Android podría ser portado a la HP TouchPad

Parece que todavía hay ciertas esperanzas para que el futuro del TouchPad después de todo. El pasado jueves, en un movimiento que pilló a casi todos por sorpresa HP anunciaba que descontinuaba el soporte y desarrollo de todos sus dispositivos con WebOS dejando al TouchPad, que se había lanzado hacía poco en Europa e iba a hacerlo recientemente en España, completamente desamparado.

Hubiese sido un movimiento sin más si no fuese porque justo al día siguiente la compañía anunciaba un grandísimo descuento en la tableta dejando el modelo más básico a tan sólo $99 dólares, abriendo la puerta a que un montón de gente interesada simplemente en tener un tablet para navegar y ver películas (o incluso coleccionistas de gadgets raros) tengan de repente ante sí una oportunidad de oro que ha provocado que el dispositivo ya se haya agotado en alguna tiendas como BestBuy. Sin embargo, aunque el futuro de WebOS sigue en el aire y no pinta nada prometedor debido a la gran acogida que ha tenido el dispositivo tras su bajada de precio, ya están empezando a surgir proyectos para portar Android Honeycomb al TouchPad.

La idea es nefasta, no sólo porque en mi opinión a Honeycomb todavía le queda madurar bastante (pero que bastante) para ponerse a la altura de la competencia, sino porque muy difícil veo yo cocinar una ROM especializada para el hardware exclusivo de la TouchPad donde habría que considerar desde el disco duro hasta los controladores de los acelerómetros y diversos sensores. No digo que no vaya a funcionar, digo que de hacerlo hay altas posibilidades de que lo haga mal, con una usabilidad pésima. Si hemos de ser mordaces, no es que la usabilidad maravillosa sea lo que caracterice a muchos tablets con Honeycomb ahora mismo, pero lo que sí está claro es que abre la puerta a que los usuario que han adquirido un TouchPad no se vean completamente desamparados en cuanto a Sistema Operativo en un futuro.

Sinceramente, lo que más me atrae de la TouchPad es su sistema operativo, WebOS, y la sublime gestión de la multitarea de la que hace gala. Lo que sí estaría bien es que a raíz de intentar portar Android al TouchPad se recojan ideas y sugerencias para mejorar Honeycomb de cara a futuras versiones, algo para lo que Apple con su iPad o RIM con su Blackberry suelen estar demasiado cerrados. Comprar hoy por hoy un TouchPad es más un deseo de coleccionismo que de versatilidad y apuesta por un SO que anda medio muerto ¿Qué opináis? ¿Merece la pena?

Twitter añade galerías de usuarios con las últimas fotos subidas

Acaba de añadirse a Twitter una nueva función que anda en consonancia con la nueva característica incorporada hace un par de semanas que permite a todos los usuarios subir imágenes de manera oficial, desde hoy y progresivamente se irá implementando para todos los usuarios una pequeña sección en su perfil que mostrará una galería con las últimas fotos subidas.

Después de la primera noticia, varios servicios de terceros como TwitPic, o yFrog se echaron a temblar porque la función que hasta ese momento cumplían ellos se veía ahora incorporada de manera directa por parte de Twitter. Sin embargo, con este movimiento parece que la compañía quiere realizar un gesto de acercamiento ya que dicha galería no mostrará sólo las fotos subidas con el propio servicio sino también con cualquiera de estos.
O lo que es lo mismo, no importa el servicio que hayas utilizado, las fotos seguirán apareciendo en la galería, algo bastante lógico si tenemos en cuenta que la opción para subir imágenes de manera oficial lleva tan poco tiempo entre nosotros que muy pocos usuarios tendrían a estas alturas una galería considerable.

En la página del perfil sólo se muestran las cuatro últimas, cuando hacemos clic en mostrar todas es cuando se podemos ver una galería más completa, de la que quedan excluidos vídeos, que no aparecen, y cualquier imagen subida antes del 1 de Junio de 2010, es decir, poco más de un año de antigüedad. Parece que con todo este tipo de maniobras la compañía está apuntando hacia un único objetivo: intentar hacer la versión web lo más completa posible de manera que lo usen una gran cantidad de personas y así poder monetizarlo de la manera más apropiada.

Cuantos más usuarios usando la versión web parece que la compañía tiene más opciones para que sus tweets promocionados y patrocinados sean vistos, ya que es una característica que de momento anda ausente en los clientes de terceros, así como el resto de las opciones dirigidas a la monetización que se han ido incluyendo últimamente. ¿Alguno tiene ya activada la nueva función de galería? Podéis dejar vuestras impresiones en los comentarios

El regreso de Internet a Libia

2011 ha sido el año de los apagones masivos de Internet. Egipto lo hizo en enero. Libia en marzo. El déspota Muamar el Gadafi y su gobierno comprendieron que Internet sería una herramienta poderosa de usarse en su contra, una que no podrían controlar. Sin embargo, los últimos indicadores señalan que Internet regresa a Libia, poco a poco, lo que como todos sabemos ha ocurrido en paralelo con la llegada de las tropas rebeldes a Tripoli.
La noche del 21 de agosto, luego de casi seis meses desconectado el blogger Ali Tweel (@TrablesVoice), pudo enviar un tweet que alegró a todos sus seguidores. No ha dejado de usar la red social desde entonces.
Lo mismo ha ocurrido con otros miles de usuarios que han vaciado la red de información de lo que sucede en el corazón de la batalla. Sin embargo, la situación es inestable. Renesys, que le ha dado seguimiento puntual al estado del acceso a la red en Libia, comentó:

Sucede algo muy extraño con el Internet de los habitantes de Tripoli. El servicio fue activado unos instantes, intermitente por un par de horas, y entonces murió.
Los reportes de tráfico de Google dan cuenta de lo sucedido. Aquí vemos desde marzo a la fecha la casi nula conectividad en el país, con cierta alza a mediados de julio. Fueron unos 150 días de oscuridad.



Por su parte, Trendsmap muestra los temas que son tendencia desde la ciudad de Tripoli. Los rebeldes, periodistas, CNN, Al Jazeera, #gadaffi, son una pequeña muestra del hervidero de ideas que habita la ciudad. Asimismo, del valor de Twitter como herramienta de comunicación, de distribución de información en tiempo real.



Renesys demostró que la estrategia de bloqueo de Libia fue distinta a la egipcia. El gobierno de Mubarack sencillamente apagó la red. Libia no. De hecho, su infraestructura seguía encendida para ofrecer acceso libre a la red —a YouTube, digamos— sólo para una élite de direcciones IP.
Y así las cosas. En estos momentos, Tripoli es la ciudad de la incertidumbre. Una ciudad donde, curiosamente, el progresivo regreso de Internet va de la mano con el de la libertad.


Las motivaciones del hacker

La palabra hacker debe ser una de las que más diversas interpretaciones/definiciones posee en el ámbito tecnológico-social; asimismo discusiones tanto entre conocedores como si no. Miremos una arista más, la del hacker legendario que es Kevin Mitnick, quien habla de sus motivaciones en interesante entrevista para NPR. Atención a estas palabras:
Mi motivación para hackear fue siempre el reto intelectual, la seducción de la aventura y, lo más importante , la búsqueda del conocimiento […] Yo simplemente quería aprenderlo todo.

Desde mi punto de vista, pequeño si lo quieren ver así, esas palabras encierran la defición del verdadero hacker. Nada tienen que ver con conocer las combinaciones de todos los comandos Unix, ni la programación de un módulo superespecializado del kernel Linux, por supuesto, tampoco el diseño del virus informático más esquivo y contagioso; vamos, que ser hacker va más allá de ser criptógrafo, doctor en ciencias, niño genio, o estereotipo vivo de ropa negra, ojeras, anti social que consigue un Access Granted cada que le viene en gana. El hacking es actitud. Ésa actitud.

En ese sentido, creo que Leonardo da Vinci tenía las mismas motivaciones: aprenderlo todo. Su trabajo refleja genialdad artística e ingenieril, una voluntad inquebrantable para conseguir la perfección al tiempo que satisfacía una curiosidad incomparable. Ésta fue su lucha diaria; su aliciente para existir. Es más, si hay que nombrar un hacker máximo, me parece que ese debe ser da Vinci.

Volviendo con Mitnick, sabemos que disfruta de una vida tranquila y exitosa, alegrada por una fama que los años han vuelto romántica, lejos de los caminos subterráneos de sus inicios, pero feliz de recibir un buen sueldo por hacer exactamente lo mismo: vulnerar sistemas —sólo que esta vez a petición de sus dueños.
Mi recomendación es tomar las palabras de Mitnick como catalizadores para crecer en el trabajo, la escuela, el auto aprendizaje. Ya sea porque eres programador, profesor, político, hacktivista, estudiante, periodista, diseñador, escritor, cómico, padre o madre, lo que sea que eres o quieras llegar ser, hacker o no, el nombre es lo de menos:
  • busca el reto intelectual;
  • déjate seducir por la experimentación, como si de una aventura se tratara, porque lo es;
  • disfruta de equivocarte y volver a empezar;
  • busca el conocimiento, el placentero y socrático acto de querer aprenderlo todo aceptando que no sabes nada;
  • sorpresa: no esperes nada a cambio, que de por sí el camino merece mucho la pena ser andado.
Comentarios de Charlie Li (Tecnico en Hardware)

se considera Hacker al aficionado a la informática cuya afición es buscar defectos y puertas traseras para entrar en los sistemas. Para los especialistas, la definición correta sería: experto que puede conseguir da un sistema informático cosas que sus creadores no imaginan.
un hacker no estudia para hacerlo solo practica mucho con los programas para manipularlos a su antojo y el ingeniero si estudia y un haker se apega mas a lo ilegal mientras que el ingeniero mas a lo legal.

Empresas, en la mira de Dell

En la primera mitad de su año fiscal 2012, Dell ganó mil 835 millones de dólares, 107% más que el año anterior; gran parte de sus ingresos se debe al crecimiento en su área de servicios.
Dell, el segundo fabricante de computadoras en el mundo, avanza con cautela en el competido mercado de las tecnologías de información, en el que en este año experimentó un crecimiento en las áreas de servicios y soluciones a empresas y organizaciones gubernamentales; en ésta última, específicamente en sectores de salud y el de la educación. En la primera mitad de su año fiscal 2012 (febrero-julio) ganó mil 835 millones de dólares, 107% más que los 886 millones que obtuvo durante el mismo periodo del ejercicio anterior. Esto fue apoyado en parte por las adquisiciones que ha efectuado la compañía (Compellent, Perot Systems y Force10), y también porque la firma creció en su área de servicios.
El futuro de su área de dispositivos móviles aún es incierto, sin embargo, no piensa deshacerse de ella, porque no quiere seguir el mismo camino que IBM, que dejó de fabricar computadoras y se dedicó de lleno a los servicios.
“La compañía no considera cortar su área de consumo porque hoy hay una conexión mucho mas fuerte entre usuarios y empresas”, dijo Luis Gonçalves, director general de Dell México. “Dell no tiene intención de hacer lo que hace la competencia, sino de aportar valor al cliente agregando tecnología innovadora”, dijo el directivo de origen brasileño.
Estas declaraciones se hicieron casi al mismo tiempo en que uno de sus competidores más grande, HP, anunciara que se desharía de su área de smartphones, tablets y por consiguiente de su sistema operativo WebOS (antes de Palm), lo cual provocó que un día después sus acciones se desplomaran más de20%, su mayor caída desde 1987.
Dell en cambio está estudiando el mercado y la manera en que usuarios y empresas están adoptando y utilizando los dispositivos móviles.

El nuevo mercado

Cuentan con su familia de smartphones y tablets con sistema Android y con el sistema Windows 7. Sin embargo, para Dell el dispositivo per se ha dejado de ser el fin último: “nuestro negocio de consumo y servicios va más allá del dispositivo, ya no hace mucho sentido sólo contar con una desktop, notebook o smartphone, lo que los clientes buscan hoy es una solución, lo mismo el individuo, busca una solución para acceder a su mail, a internet, etcétera.
Nuestra estrategia está basada en los servicios y soluciones que uno puede desarrollar para entregar a los clientes una mejor utilización y optimización de su inversión y de su plataforma tecnológica”, dijo el directivo.

Los ingresos

Y aunque Dell tuvo buenos resultados, recortó el pronóstico de ingresos para 2012, dado que la perspectiva del gasto en tecnología para este año se debilitó, y provocó que sus acciones bajaran más de 7% la semana pasada.
La crisis mundial que se está dando en estos días y el incremento en la tasa de desempleo provoca que empresas, gobierno y usuarios recorten sus gastos. “En estos casos, la estrategia de Dell es enfocarse en geografías que están creciendo, para nosotros se han abierto nuevas oportunidades que antes no estábamos buscando, como en los países emergentes, en los que crecimos 18%. Latinoamérica es una región muy importante para Dell. Países como Colombia, Perú y Chile están creciendo mucho. De hecho, en México estamos contratando más gente de lo que esperábamos en un inicio de año”, dijo Gonçalves, quien tiene apenas seis meses de haber llegado a nuestro país.

Empresas y gobierno

En el área de servicios Dell creció 6%, y en enterprise, que abarca a servidores y almacenamiento, creció 9% año con año.
“Antes se creaban soluciones para empresas sólo para países desarrollados, pero la tecnología ha acortado mucho la brecha, hoy un cliente de México puede tener una solución de cloud computing con la misma dificultad, facilidad y conocimiento que un cliente en Estados Unidos”, aseguró el directivo brasileño.
Dell cuenta con soluciones en datacenter (almacenamiento de datos, networking). Y también en el llamado “end user computing”, servicios para usuarios dentro de una compañía que usan un smartphone, una tablet, y/o una laptop. En cuanto a gobierno, Dell trabaja en proyectos con educación y salud.

Educación y salud

En el caso de educación, cuentan con programas como “Connected classroom”, plataforma tecnológica que sirve para acelerar y optimizar el aprendizaje de los alumnos.
Y en salud, con ayuda de la adquisición de Perot Systems, Dell cuenta con plataformas de integración tecnológica en clínicas y hospitales.
Por ejemplo, cuenta con una solución en “la nube” para abarcar todos los formatos posibles de imágenes radiológicas, de tal manera que un ciudadano pueda ser atendido en diferentes hospitales y clínicas al instante, sin importar si un hospital usa determinada tecnología y otro usa otra marca y otros formatos. Con esto la organización ahorra costos y mejora su servicio a los clientes. Las soluciones en la nube de Dell también son para las empresas privadas y en un par de semanas anunciará su alianza con una empresa muy grande en México y que brindará servicios a los usuarios desde la nube, tecnología que ya comienza a ser adoptada por muchas compañías.

miércoles, 17 de agosto de 2011

Red inalámbrica

El término red inalámbrica (Wireless network en inglés) es un término que se utiliza en informática para designar la conexión de nodos sin necesidad de una conexión física (cables), ésta se da por medio de ondas electromagneticas. La transmisión y la recepción se realizan a través de puertos.
Una de sus principales ventajas es notable en los costos, ya que se elimina todo el cable ethernet y conexiones físicas entre nodos, pero también tiene una desventaja considerable ya que para este tipo de red se debe de tener una seguridad mucho mas exigente y robusta para evitar a los intrusos.

                    Categorías

Existen dos categorías de las redes inalámbricas.
  1. Larga distancia: estas son utilizadas para distancias grandes como puede ser otra ciudad u otro país.
  2. Corta distancia: son utilizadas para un mismo edificio o en varios edificios cercanos no muy retirados.
                                                                   Tipos

Según su cobertura, se pueden clasificar en diferentes tipos:

Wireless Personal Area Network
 
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.

 Wireless Local Area Network

En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HIPERLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.

 Wireless Metropolitan Area Network

Para redes de área metropolitana se encuentran tecnologías basadas en WiMAX (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMAX es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).

  Wireless Wide Area Network

Una WWAN difiere de una WLAN (wireless local area network) en que usa tecnologías de red celular de comunicaciones móviles como WiMAX (aunque se aplica mejor a Redes WMAN), UMTS (Universal Mobile Telecommunications System), GPRS, EDGE, CDMA2000, GSM, CDPD, Mobitex, HSPA y 3G para transferir los datos. También incluye LMDS y Wi-Fi autónoma para conectar a internet.

Caracteristicas

Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:

  • Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000000 Hz.
  • Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
  • Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
  • Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.
VENTAJAS

Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional. Permiten gran movilidad dentro del alcance de la red (las redes hogareñas inalámbricas suelen tener hasta 100 metros de la base transmisora).
Suelen instalarse más
fácilmente (SI tienes un equipo portatil, tienes movilidad por todo el rango de cobertura de la red inalambrica).

DESVENTAJAS

Todavía no hay estudios certeros sobre la peligrosidad (o no) de las radiaciones utilizadas en las redes inalámbricas.
 Pueden
llegar a ser más inseguras, ya que cualquiera cerca podría acceder a la red inalámbrica. De todas maneras, se les puede agregar la suficiente seguridad como para que sea difícil hackearlas. 

Comentarios de Charlie Li (Tecnico en Hardware)

Usualmete la red alámbrica maneja velocidades de 100MBs y las inalámbricas de 54. así que las alámbricas son más rápidas.
Ambas redes tienen ventajas y desventajas.
las redes inalambricas son mas baratas que las otras,  pero no tan seguras en conexion osea que a veces colapsan. weno io tengo inalambrica y me va bien solo que algunas veces se va la señal pero la velocidad dependiendo del proveedor si es buena.
Fuente de Informacion: Charlie Li, Tecnico en Hardware, Lima - Peru

Red de computadoras

 red informática, es un conjunto de equipos informáticos conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos.
o cualquier otro medio para el transporte de datos con la finalidad de compartir información y recursos, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el coste general de estas acciones.
                                                  Clasificación de las redes
Por alcance:
  • Red de área personal o PAN (personal area network) es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.
  • Red de área local o LAN (local area network) es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización.
  • Una red de área de campus o CAN (campus area network) es una red de computadoras que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, o una base militar.
  • Una red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica extensa.
  • Las redes de área amplia (wide area network, WAN) son redes informáticas que se extienden sobre un área geográfica extensa.
  • Una red de área de almacenamiento, en inglés SAN (storage area network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte.
  • Una Red de área local virtual (Virtual LAN, VLAN) es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cuál todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física.
  • Red irregular es un sistema de cables y buses que se conectan a través de un módem, y que da como resultado la conexión de una o más computadoras. Esta red es parecida a la mixta, solo que no sigue los parámetros presentados en ella. Muchos de estos casos son muy usados en la mayoría de las redes.
   Por tipo de conexión:

Medios guiados

  • El cable coaxial se utiliza para transportar señales eléctricas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo, encargado de llevar la información, y uno exterior, de aspecto tubular, llamado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes.
  • El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes.
  • La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir.
  • Medios no guiados
    • Red por radio
    • Red por infrarrojos
    • Red por microondas
                                                      Por relación funcional

  • Cliente-servidor es una arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta.
  • Peer-to-peer es aquella red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí.

                                       Por topología

  • La red en bus se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos.
  • En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera.
  • En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.
  • En una red en malla cada nodo está conectado a todos los otros.
  • En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central.
  • En una red mixta se da cualquier combinación de las anteriores.

 Por la direccionalidad de los datos

  • Simplex o Unidireccional: un Equipo Terminal de Datos transmite y otro recibe.
  • Half-Duplex o Bidireccional: sólo un equipo transmite a la vez. También se llama Semi-Duplex.
  • Full-Duplex: ambos pueden transmitir y recibir a la vez una misma información.
    Protocolos de redes

Modelo OSI: El modelo OSI (open systems interconnection) fue creado por la ISO y se encarga de la conexión entre sistemas abiertos, esto es, sistemas abiertos a la comunicación con otros sistemas. Los principios en los que basó su creación son, una mayor definición de las funciones de cada capa, evitar agrupar funciones diferentes en la misma capa y una mayor simplificación en el funcionamiento del modelo en general. Este modelo divide las funciones de red en 7 capas diferenciadas.


Modelo TCP/IP: Este modelo es el implantado actualmente a nivel mundial: Fue utilizado en ARPANET y es utilizado actualmente a nivel global en Internet y redes locales. Su nombre deriva de los dos principales protocolos que lo conforman: TCP en la Capa de transporte e IP en la Capa de red. Se compone de 4 capas.


Otros estándares
Existen otros estándares, más concretos, que definen el modo de funcionamiento de diversas tecnologías de transmisión de datos.

Fuentes de Informacion : Charlie Li. Tecnico en Hardware, Lima - Peru