zonavergataria
  Noticias
 

El futuro de Internet y su gobernanza
desconosido el 14-07-2009, 02:44 (UTC)
 Con gobernanza se quiere dar a entender una entelequia que proponga un cierto gobierno y regulación en Internet. Pues aunque no sepamos muy bien cómo ni quién, lo cierto es que sí existe un lugar llamado Internet al que acuden cientos de millones de ciudadanos todos los días

LA CONVERGENCIA EN LAS TIC

(Curso de verano de la UPM/Asimelec, La Granja, JUL09)

La cuestión es qué hacer y cómo dirigirlo de manera sostenible ante los intereses a veces encontrados de operadores de telecomunicaciones dueños de las redes, proveedores de servicios, productores de contenidos y medios de comunicación, gobiernos estatales y el resto del ecosistema de internautas varios. Sin duda un gran debate que comienza a estar en la agenda de los gobernantes de todo el orbe. ¿Se puede desenchufar Internet en caso de amenaza nacional externa o conflictos sociales internos?



Los «papás» de Internet (Vinton Cerf y Tim Berners-Lee) consideran una serie de principios que deben prevalecer en ese debate: la neutralidad de la red (y aquí surge la idea del equilibrio justo que propugnan las «telecos»); la defensa del conocimiento colectivo y universal; la ubicuidad y el acceso libre; defender lo que incluso aún está por escribirse, sea lo que sea; el fraccionamiento y descentralización de los servidores raíz; y especialmente la no ingerencia de los gobiernos salvo para promocionar y facilitar su uso entre la población, especialmente la más desfavorecida.



Pero según el catedrático de la UPM Jorge Pérez Martínez, resulta muy difícil identificar quién o quiénes deben liderar este nuevo proceso. La corriente europea, que ha perdido el primer round, es más proclive a que sea el sector privado el responsable, pues hasta ahora la gestión de los recursos críticos de Internet (los nombres de los dominios, indexación de páginas, localización de servidores raíz, estandarización de protocolos…) han sido llevados por organismos gubernamentales y universidades de Estados Unidos.



No hay que olvidar el pasado aún reciente de las operadoras de telecomunicaciones europeas, monopolios estatales sin competencia en su día y hoy empresas mercantiles con posiciones dominantes en cada región, que empiezan a hablar de lo que consideran «el justo equilibrio», y que tiene que ver con la amortización de sus (elevadas) inversiones en infraestructuras, así como la defensa de un ROI positivo (retorno de la inversión con beneficios), incluso si entra en conflicto con el principio de universalidad del servicio o la idea de la neutralidad en la red (no discriminación en el acceso por motivos económicos o geográficos).



De hecho, lo que sí está claro en las redes de nueva generación es la convivencia de regiones como Escandinavia fuertemente cableadas con fibra óptica de gran velocidad con otras africanas o asiáticas de acceso inalámbrico de baja intensidad.



La UE ya ha lanzado varias iniciativas, como es la web de Future-Internet.eu, el programa Challenge1 o la declaración de Bled (Estonia), donde se recogen tanto aspectos técnicos como de gobierno. En ellas, se ve el futuro como una sociedad interconectada en red, resumida gráficamente en un frontispicio con cuatro pilares: las personas (identidad), los contenidos (conocimiento), las cosas (máquinas) y los servicios (mercado). Y arriba de todo la garantía de los derechos básicos de los ciudadanos (libertad de expresión, protección de la intimidad, promoción del idioma y cultura propia…).



¿A quién se debe rendir cuentas?

El gobierno de las telecomunicaciones disfrutaba de un organismo internacional ad-hoc, la UIT, encargado de consensuar protocolos y estándares. Pero Internet llega y arrasa, y de repente los Gobiernos se ven rodeados de «mochileros» que toman las riendas del asunto en una manifiesta acracia y que encima no se cortan a la hora de demandar rendición de cuentas: si Internet se cae, ¿quién es el responsable?, ¿a quién se le puede pedir cuentas?



Para Jorge Pérez, esta necesidad de definir la gobernanza de Internet abrirá un gran debate a partir del próximo otoño. Momento a partir del cual habrá que definir qué organismos se responsabilizarán de asegurar los recursos críticos de la Red (especialmente su carácter de abierto, interoperable y de extremo a extremo) o la regulación de su vertiente económica (libre competencia) y política («netiqueta»).



Por un lado, está la ICANN, organismo ya maduro al que en septiembre caduca su acuerdo de dependencia del Departamento de Comercio de los EEUU; podría ser un perfecto candidato para la parte técnica de nombres y direcciones de dominio y deslocalización de servidores raíz (en combinación con la parte de interfaces, estandarización de mejores prácticas y normalización de protocolos de usabilidad que sería el W3C).



Por otro lado aparece la idea de una explotación conjunta, una especie de G-12 de entidades privadas (las operadoras), pero rindiendo cuentas a los Gobiernos por la gestión de unos recursos sin fronteras que llegarán a afectar a 6.000 millones de personas.



En conclusión, señala Pérez, «está todo por hacer». El ICANN es muy débil para batallar con países como China o Irán donde lo primero que hacen ante la algarada de turno es controlar la Red. Y la actual crisis financiera lo que ha demostrado es que cosas que se creían asentadas pueden dejar de funcionar de un día para otro.



Resumen de la ponencia de Jorge Pérez (consejero de Fundesco, catedrático de la Universidad Politécnica de Madrid y presidente del capítulo español para la Gobernanza de Internet)
 

Aplicaciones: echemos la vista atrás
desconosido el 14-07-2009, 02:41 (UTC)
 La época en la que para dotar a nuestro PC del software necesario para sacarle partido debíamos afrontar un gasto considerable se ha extinguido

Remontémonos a mediados de la década de los 90, antes del lanzamiento de Windows 95 y del advenimiento de Internet tal y como los usuarios domésticos la conocemos hoy en día. En esa época reinaban los PCs equipados con microprocesadores 80486 de Intel, y solo los entusiastas más afortunados tenían un equipo gobernado por la que entonces era la joya de la firma de Santa Clara: un microprocesador Pentium.



Internet ya existía en esa época. De hecho, realmente es una infraestructura compleja constituida por una ingente cantidad de redes de comunicación interconectadas y descentralizadas sobre las que se «acomodan» servicios, y no estos últimos en sí mismos (la confusión entre la Red y los servicios que se implementan sobre ella es muy frecuente).



Su origen se remonta a 1969, año en que surgió ARPANET (Advanced Research Projects Agency Network), la auténtica precursora de Internet. Esta red fue creada por cuatro universidades estadounidenses por encargo del Departamento de Defensa de los Estados Unidos. Existe un mito que defiende que su función original era proporcionar un medio de comunicación seguro capaz de salir indemne de un ataque nuclear.



Sin duda, una explicación exótica que resulta plausible en el contexto de la Guerra Fría, pero que no responde de forma estricta a la realidad. Su función inicial era materializar una red de conmutación que permitiese establecer comunicaciones de voz seguras en el ámbito militar, superando la escasa fiabilidad de los nodos de conmutación de la red telefónica de la época. Por supuesto, si se produjese un ataque nuclear sobre Estados Unidos sería de gran ayuda contar con un ingenio como ése.



Curiosamente, a finales de los 60 y de forma paralela, varias universidades estadounidenses habían comenzado a esbozar una infraestructura de comunicaciones por conmutación de paquetes (el término «paquete», precisamente, nació como resultado de estos estudios) que les permitiese interconectar los ordenadores que los investigadores de estos centros utilizaban en aquella época.



Empleándola, los científicos podrían compartir información y colaborar de una forma mucho más eficaz. Ciencia y nada más que ciencia. Pero el respaldo económico del Departamento de Defensa podía representar el espaldarazo definitivo al proyecto. Y así fue. Internet acababa de nacer. O, al menos, su predecesora.



Una fuente de recursos realmente inagotable

El origen estadounidense de la infraestructura que ha hecho posible la Red es evidente. Sin embargo, el servicio más exitoso de cuantos cohabitan sobre ella, conocido como World Wide Web (WWW), es europeo. Sus creadores fueron Tim Berners-Lee y Robert Cailliau, físico inglés el primero, ingeniero mecánico y electrónico belga el segundo.



A finales de los 80 ambos trabajaban en el CERN (la Organización Europea para la Investigación Nuclear), y en 1989 comenzaron a esbozar un sistema de documentos que utilizaba una idea totalmente innovadora, los enlaces de hipertexto, para relacionar, organizar y facilitar la navegación a través de la ingente cantidad de información a la que se podía acceder a través de Internet.



A partir de ese momento, Tim y su grupo de trabajo pusieron a punto el lenguaje HTML, el protocolo HTTP y la tecnología de localización de recursos URL. Casi nada. En ese momento empezó a fraguarse la Red tal y como la conocemos hoy en día, y, sobre todo, la idea de un servicio de proporciones colosales fácil de utilizar y, por lo tanto, capaz de «escapar» de los ámbitos académico y empresarial y, así, conquistar el entorno doméstico.



Internet ha realizado numerosas contribuciones capaces de transformar nuestro modo de vida. Ha incrementado drásticamente nuestras posibilidades de comunicación, pone a disposición del gran público información de otra forma prácticamente inaccesible, ofrece innumerables oportunidades de negocio y ocio... Pero, sin duda, una de las más importantes es que se ha erguido como una fuente de recursos software gratuitos prácticamente inagotable.
 

¿Por qué virtualizar nuestros equipos?
Laura Fernández el 12-07-2009, 19:53 (UTC)
 Utilizar la tecnología como servicio y pagar exclusivamente por los recursos que se necesitan, exactamente igual que sucede con el agua o la luz. Eso es la virtualización



LA OPINIÓN DEL EXPERTO

A medida que una empresa crece, adquiere diferentes equipos informáticos y establece distintos entornos para utilizar herramientas tecnológicas concretas, según las más puntuales necesidades de negocio: un servidor de correo, otro para una base de datos de clientes, un tercero para un programa ERP de planificación de recursos empresariales… Con el paso de los años, el número de servidores aumenta y se complica la gestión y el control del hardware, con el consiguiente incremento de los gastos operativos derivados de su funcionamiento. Sólo una tecnología permite enfrentarse de manera racional a esta escalada en la administración de sistemas corporativos. Ésta tecnología es la virtualización.



La virtualización, aprovechando la capacidad y potencia de los equipos actuales, se presenta como la respuesta a la necesidad de alcanzar la máxima eficiencia tecnológica. A través de software, la virtualización divide los recursos de un equipo informático para crear distintas máquinas virtuales que funcionan de manera independiente aunque no existan físicamente. Se trata de crear distintos entornos informáticos virtuales en un mismo hardware.



Esta característica destaca por resultar extremadamente práctica y funcional para la empresa, ya que permite la consolidación de servidores; es decir, reduce el número de máquinas y optimiza el grado de uso de los recursos informáticos. Con el modelo de servidores independientes, una máquina reciente con una aplicación convencional apenas aprovecha un 30% de sus recursos informáticos (capacidad de proceso, memoria RAM…) y desperdicia el 70% restante. Sin embargo, los costes de licencias, mantenimiento, soporte, electricidad… se corresponden con el 100% de la máquina.



La consolidación de servidores a través de la virtualización aprovecha el 100% de cada máquina en un proceso de máxima eficiencia para las empresas, ya que puede aplicarse en cualquier servidor, independientemente de su uso (servidores de aplicaciones, para bases de datos, de desarrollo…). Con un grado de versatilidad comparable, un servidor virtual requiere una inversión tecnológica en infraestructura muy inferior a un servidor dedicado. Dependiendo de si una máquina física se virtualiza para conseguir dos máquinas virtuales o diez, por decir unas cifras, la inversión inicial es dos o diez veces inferior que un servidor dedicado. A esta cantidad, también hay que sumar la cifra procedente del ahorro del consumo eléctrico y de mantenimiento que supone un número cualquiera de servidores virtuales frente a su equivalente en dedicados.



La consolidación de servidores no es la única aplicación de la virtualización. No sólo se pueden alojar en una única máquina aplicaciones antes incompatibles. Debido a la posibilidad de realizar snapshots (puntos de restauración), ofrece numerosas ventajas en pruebas de testing y desarrollo, porque la monitorización de las pruebas de estrés congela el proceso de una máquina virtual en cualquier momento. Incluso puede considerarse una garantía de continuidad de negocio, ya que todo el contenido de un equipo virtual puede trasladarse a otro fácilmente, si se produce un incidente en el hardware



La creación de entornos informáticos completamente independientes que no supongan ningún riesgo para el entorno principal de una máquina supone una ventaja que valora cualquier administrador de sistemas. Por ejemplo, una empresa podría utilizar una aplicación corporativa con un sistema operativo conocido estable y probar una nueva versión de esa misma aplicación para otro sistema operativo. En estos casos, que son habituales, sólo le quedan dos opciones: virtualizar los equipos o contratar varios servidores.





Beneficios de la virtualización

* -Eficiencia. Gracias a la virtualización se pueden aprovechar la totalidad de los recursos de un ordenador. Dado que las máquinas actuales suelen tener varios núcleos o procesadores, la virtualización es la oportunidad idónea para explotar al máximo esta potencia y no infrautilizar los recursos informáticos.
* -Ahorro. La consolidación reduce el número de máquinas físicas, y como consecuencia, se reducen también los costes de inversión en equipos, de mantenimiento, consumo energético y de espacio, generando ahorros de hasta un 40% sólo en la inversión anual destinada a la adquisición de nuevo hardware.
* -Flexibilidad. Una sola máquina física puede dar lugar a varias máquinas virtuales, en función de las necesidades del usuario. Además, el equipo virtual se crea con las características de CPU, memoria, disco y red necesarias para asegurar su correcto funcionamiento, según el uso que se le vaya a dar.
* -Seguridad. Era uno de los inconvenientes que achacaban a la virtualización hace años, pero esta tecnología ya se encuentra lo suficientemente madura para garantizar una seguridad similar a un servidor dedicado. Cada máquina virtual funciona de forma aislada e independiente del resto, con las que sólo comparte un equipo físico. Hasta tal punto que los recursos del servidor físico asignados a cada máquina virtual sólo están disponibles para una máquina virtual concreta, no se comparten. Además, ante cualquier fallo físico de hardware, basta “copiar y pegar” la máquina virtual en otro equipo, eliminando un buen número de incidencias técnicas de seguridad.
* -Agilidad. La virtualización agiliza las tareas, dado que el proceso de creación de un equipo virtual es muy rápido, inmediato desde la toma de decisión. No es necesario pasar por todas las fases de adquisición de un nuevo servidor: elección del modelo, disponibilidad, configuración…
* -Portabilidad. A través de la copia de los ficheros que forman la máquina virtual, se puede clonar la información a otro servidor físico sin ningún problema y rápidamente. De este modo, la virtualización reduce la indisponibilidad por fallos de hardware.

Como en todas las tecnologías, la virtualización no proporciona el mismo valor para todas las organizaciones y existen, por lo tanto, escenarios en los que su potencial debe adecuarse. En la mediana empresa, los departamentos de sistemas están desarrollando sus propios entornos de virtualización, pero esta operación no sale rentable para una pyme o un autónomo. Estos segmentos, que suponen la inmensa mayoría del tejido empresarial español, pueden comprobar las ventajas de esta tecnología a través de los proveedores, que han estandarizado las soluciones de virtualización en los denominados Servidores Virtuales, Servidores Privados o VPS (por las siglas en inglés de Virtual Private Server).



Estos servicios virtuales empaquetan los recursos informáticos de los servidores de última generación para racionalizar su capacidad y adecuarla a las necesidades más concretas de cada proyecto web. La virtualización supone un cambio radical en la evolución de los entornos informáticos y es sólo la primera piedra de una tendencia que se está implantando: utilizar la tecnología como servicio y pagar exclusivamente por los recursos que se necesitan. Exactamente igual que sucede con el agua corriente: los usuarios pagamos por lo que consumimos, no por un depósito concreto.
 

<-Volver

 1 

Siguiente->

 
  Hoy habia 1 visitantes (1 clics a subpáginas) ¡Aqui en esta página!  
 
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis