6 razones que hacen seguro al código abierto

6 razones que hacen seguro al código abierto

Un tema recurrente que enfrentan los desarrolladores, programadores y proveedores de código abierto es la seguridad de éste.

‘¿El hecho de ser abierto no lo hace más inseguro? ¿Puedo confiar mis aplicaciones e información a un software en cuya creación participó una multitud de desarrolladores? ¿No es el objetivo preferido de los criminales informáticos de todo el mundo?’ Estos son algunos ejemplos de los cuestionamientos que se plantean –una y otra vez– cuando las empresas consideran la posibilidad de incorporar el open source en sus operaciones.

La mayoría de los que dudan de la seguridad del código abierto son empresas tradicionales que han dependido desde siempre de software propietario, habituadas a pagar enormes cantidades de dinero a un solo proveedor para recibir soporte, actualizaciones y seguridad; servicios que –además– no siempre han sido los mejores ni los más efectivos. Y andan con pies de plomo cuando se trata de aventurarse a probar software empresarial abierto.

No obstante, son cada vez más las organizaciones que están adoptando estas soluciones abiertas, que las operan y administran a la par de sus sistemas tradicionales con éxito.

Actualmente, casi todas las compañías de la lista Fortune 500 utilizan open source de alguna manera; y lo mismo ocurre en empresas digitales nativas, como Facebook, Uber y Google, entre otras.

De hecho, el código abierto ha demostrado ser lo suficientemente estable, seguro y capaz de detectar y solucionar vulnerabilidades en el menor tiempo posible. La tecnología abierta y la seguridad están estrechamente relacionadas – en lugar de depender de una compañía o de un equipo de desarrollo para crear una solución segura, la tecnología abierta ayuda a las organizaciones de los sectores público y privado a trabajar conjuntamente con el fin de crear entornos protegidos.

La colaboración entre las empresas y las comunidades del código abierto ha derivado en la oportunidad de conocer –de primera mano– los problemas que pudieran afectar a los usuarios, proporcionarles las metodologías y soluciones más efectivas, y ayudarles a reducir considerablemente el riesgo de ser perjudicados por situaciones de seguridad y amenazas.

Si bien la seguridad es un tema que se ha resuelto en el mundo del código abierto desde hace algún tiempo, aún persisten algunos mitos y temores.

A continuación, se muestra un recuento de las razones concretas que confirman la fortaleza del código abierto.

 

1. Seguridad en su ADN. Una comunidad diversa de desarrolladores colabora para crear la solución abierta inicial, y esa misma cooperación está presente cuando se resuelven problemas y se producen nuevas versiones. En consecuencia, el número de errores y posibles vulnerabilidades se reduce, y las soluciones se construyen más rápido. Los usuarios también tienen la oportunidad de evaluar el código y contribuir para mejorarlo.

 

2. Colaboración igual a fortaleza. Parecería una paradoja el hecho de que abrir el código abierto lo hace más confiable. Lo cierto es que dicha apertura ayuda a fortalecer la seguridad. Que exista tal nivel de participación en el desarrollo del software hace más fácil incorporar innovaciones clave. Con mayor transparencia, responsabilidad, verificabilidad y colaboración, la seguridad se fortalece.

 

3. Listo para la empresa. Aún está latente el desafío de terminar con la percepción de que el código abierto todavía no está listo para entrar a las empresas. No se debe perder de vista que el software abierto permite a las organizaciones ‘personalizar’ soluciones que satisfagan sus necesidades particulares, y está diseñado para implementarse de forma rápida y sencilla, así como ser altamente escalable y ágil. Al ser estable, ofrecer continuidad en el servicio, ser sometido a pruebas de aseguramiento de la calidad y contar con actualizaciones controladas y frecuentes, el software abierto es una excelente solución para los desarrolladores y las operaciones de TI.

 

4. Calidad, una prioridad. A los desarrolladores de código abierto les interesa conservar su credibilidad, por lo que liberan código de calidad –lo que simplifica las labores de desarrollo. En un entorno abierto comercial, cada desarrollador pasa por un riguroso proceso de aprobación después de avalar sus credenciales. Así se comprometen a que el código que desarrollan sea sometido a un sofisticado proceso de revisión, aceptación o rechazo. ¿El resultado? Software minuciosamente probado y seguro que puede ser implementado por todo tipo de organizaciones.

 

5. Versiones más estables. Las empresas a veces se muestran renuentes a adoptar software abierto pues creen que nadie se hará responsable en caso de que se presente una falla o vulnerabilidad, y que su mantenimiento es costoso. Sin embargo, actualmente son varias las compañías que utilizan código abierto en sus productos, lo que automáticamente las hace responsables de lo que le están licenciando a sus clientes. Y por su naturaleza, el open source puede responder a las necesidades de las empresas y liberar actualizaciones, parches y nuevas versiones más estables y seguras, y hacerlo constantemente.

 

6. Sigue el ritmo de las amenazas. Todos los días, las compañías están expuestas a miles de amenazas que ponen en peligro la integridad de su información y sus operaciones. Es cierto que un gran número de hackers está buscando las fallas y vulnerabilidades del software, propietario y abierto, con el fin de penetrar en los sistemas empresariales y extraer datos valiosos. Sin embargo, también es cierto que cuando las detectan, un ejército de desarrolladores y expertos de la comunidad open source pone manos a la obra para liberar una actualización o un parche en cuestión de horas. Algo que es prácticamente imposible en un entorno propietario.

 

Por Olivia Salas, Directora de Marketing de Red Hat México

Leer más

La mentalidad colaborativa del Blockchain

La mentalidad colaborativa del Blockchain

Los blockchain (o cadena de bloques) no son sólo una tecnología disruptiva, sino que representan una nueva mentalidad colaborativa y de código abierto que el mercado abraza mientras avanza hacia a la Cuarta Revolución Industrial.

Esta tecnología, todavía en fase de maduración, transformará la manera como se intercambian las informaciones, con enfoque especialmente en la experiencia del usuario, y abrirá un sinfín de nuevas posibilidades.

Si usted todavía no sabe qué son los blockchain, quizás sea mejor comenzar por una breve revisión de las clases de ciencias. Cuando nuestro cuerpo se está formando antes del nacimiento, las células sufren dos tipos de procesos de división. Nos enfocaremos en uno de ellos, la mitosis, que es la constante división celular que produce nuevas células para el crecimiento, reparación y sustitución general de las más antiguas, en que una célula somática se divide en dos nuevas células completas idénticas a la original. Es así que crecemos y vivimos, con nuestras células copiándose y multiplicándose extremadamente rápido.

Ahora volvamos al blockchain, la tecnología que, si bien no es muy reciente, recibe todavía muchas nuevas atribuciones de uso. Creada en 2008 para Bitcoins, se está investigando y probando en el mercado financiero, luego podrá aplicarse a todos los sectores y revolucionará la manera como intercambiamos cualquier tipo de información. Los blockchain tienen potencial para reemplazar totalmente las oficinas notariales, firmar electrónicamente derechos de autor e incluso garantizar votaciones electrónicas.

El blockchain es la mejor manera de transferir datos sin tener que copiarlos, porque ya parte del principio de que son públicos. Por ello, una de sus grandes ventajas es la transparencia. Las informaciones se comparten numerosas veces dentro de los bloques, que se suman entre sí y forman cadenas a las que todos pueden acceder y editar de manera simultánea, haciendo que las transacciones sean mucho más rápidas.

Es también más seguro, debido a que no hay un centro controlador, que podría ser atacado por un hacker. Para alterar una información habría que alterar todas sus repeticiones, lo que es posible, pero improbable. Sería como intentar reconfigurar a un ser humano, cambiando simultáneamente todas las células de su cuerpo.

Las informaciones del blockchain están cifradas y se pueden acceder mediante claves públicas o privadas (una larga serie de números generados de forma aleatoria), que se convierten en la dirección del usuario en el blockchain y rastrean el uso de las informaciones. Éste utiliza registros distribuidos de dos formas:

  1. Cada usuario tiene su propia copia de todos los registros
  2. Los usuarios solicitan permiso para tener partes de las informaciones ―en el caso de los datos sensibles

 

Si no hay centralizadores, tampoco es necesario un facilitador de procesos, el famoso ‘intermediario’. Una transacción financiera entre países, por ejemplo, se haría de manera más rápida y barata.

Larry Summers, ex secretario del Tesoro de los Estados Unidos, lo explicó bien utilizando como ejemplo las máquinas de fax, que solas no servirían para nada. Ellas solo pasaron a ser útiles cuando muchas empresas comenzaron a utilizarlas para comunicarse entre sí. El blockchain funciona de la siguiente manera: el mercado tiene que adoptarlo para que sea útil y revolucione la forma como nos relacionamos con las informaciones.

La lógica del blockchain, ampliamente probada en Bitcoins, con éxito comprobado, puede ser perfectamente útil, basta con que el mercado cambie la antigua costumbre de mantener cerrada la información. Compartir para sumar, este es el futuro.

Por Julio Carvalho, director de preventas de seguridad y API Management de CA Technologies para América Latina

Leer más

Crean Issabel.org, la nueva comunidad del código abierto

Crean Issabel.org, la nueva comunidad del código abierto

La comunidad de desarrolladores, creadores y líderes de negocio se han unido para crear Issabel.org, informó la propia organización en un comunicado.

Esta iniciativa tiene como propósito dar continuidad a Elastix, proyecto que ha aportado innovación y nuevos modelos de colaboración en el mercado empresarial.

‘La comunidad convocada en torno a Issabel.org está conformada por un grupo de entusiastas especialistas de diversos países que creen en el poder del código abierto para transformar el mercado de las tecnologías de la información y las comunicaciones, quienes aportan conocimiento, experiencia y pasión por el open source‘.

La comunidad Issabel.org tiene su origen en la participación de individuos, comunidades y empresas con miras a cambiar la manera en que nos comunicamos y colaboramos, quienes han sentado las bases para la innovación y el intercambio de conocimientos vitales.

En la era del Internet de las Cosas, la empresas y organizaciones han tomado consciencia sobre la limitada capacidad de reacción que tienen al depender de sistemas y aplicaciones propietarias así como del tedioso y largo ciclo de desarrollo de nuevas funcionalidades y alcances que las soluciones y herramientas propietarias tienen.

El reporte Predicciones para la Industria de TI en América Latina, realizado por IDC y FutureScape, reveló que en el 2016, 2 de cada 3 proyectos de TI han destacado como una de sus metas más importantes el ahorro de costos por lo que el uso de código abierto sea consolidado, aportándoles facilidad de acceso, flexibilidad y soluciones escalables.

La colaboración y la participación de comunidades de desarrolladores, proveedores y empresas para el nacimiento de Issabel.org representa una oportunidad para que las compañías e individuos puedan seguir innovando y generando valor en un mundo altamente competitivo.

Issabel.org garantiza a los clientes y desarrolladores que actualmente han adoptado soluciones Elastix, la continuidad y soporte que les permita seguir operando con eficiencia y acceder a nuevos niveles de funcionalidad e innovación, aclaró la organización en un comunicado.

Así mismo, será el catalizador de los proyectos de código abierto que impulsaran la transformación digital de empresas, organizaciones clientes y usuarios actuales de Elastix, agregó Issabel.org.

Leer más

Open Source, el fundamento de las nuevas tecnologías

Open Source, el fundamento de las nuevas tecnologías

Recientemente, hemos sido testigos de cambios radicales en la manera en que las organizaciones hacen negocios y producen, y en la forma en que los individuos trabajan e interactúan.

La innovación, la capacidad de respuesta, la personalización, la movilidad y el procesamiento en tiempo real de grandes cantidades de datos, entre otros factores, han detonado dichas transformaciones.

¿Qué tecnologías y tendencias han dado origen a esta nueva realidad? ¿Cuáles de ellas están logrando que una nueva generación de empresas incremente rápidamente su valor, y al conseguirlo, sean las que estén marcando el rumbo en la economía digital y las que están dando un nuevo impulso a las compañías tradicionales? Y lo más importante, ¿qué ha hecho posible que estas tecnologías florezcan y se implementen en todos los ámbitos de la actividad económica y social?

Hagamos un rápido recuento de 6 innovaciones y su influencia en la actividad productiva y humana.

 

1. Internet de las cosas (IoT). Los objetos cotidianos forman parte de una red, en donde envían y reciben datos desde y hacia otras “cosas”; se trata de un mundo totalmente conectado mediante dispositivos integrados.

En el mundo del consumo, IoT permite, por ejemplo, que una persona pueda ajustar el termostato del aire acondicionado de su casa desde un dispositivo móvil y desde cualquier lugar. En el lado empresarial, IoT puede ofrecer nuevas capacidades, disminuir costos, mejorar la eficiencia y reducir el tiempo inactivo, entre otros diversos beneficios.

 

2. Big Data. Se le puede definir con las 3 “V”: volúmenes masivos de datos en una variedad de formatos no estándar y que se procesan a una gran velocidad. El análisis de big data proporciona información útil que se puede utilizar para lograr una ventaja competitiva para la empresa. Las organizaciones invierten en la inteligencia de estos datos para reducir los costos, trabajar con mayor eficiencia y buscar nuevas formas de aumentar los beneficios.

 

3. TI Bimodal. De acuerdo con Gartner, estamos entrando en la 4ª generación del cómputo. Para aprovechar las oportunidades que ofrece el nuevo mundo digital, los directores de Información (CIOs) necesitan mayor velocidad para innovar en un entorno incierto. Este nuevo escenario les exige operar en dos modos en relación con la TI empresarial: uno convencional y uno nuevo “no lineal”. Este es el modelo denominado “Bi-modal IT”.

 

4. Movilidad. La movilidad se está convirtiendo en una prioridad cada vez mayor para las empresas, y promete impulsar la innovación en el negocio y optimizar la eficiencia operativa. La movilidad requiere de la colaboración en ciclos de desarrollo continuo más rápidos, la apertura a nuevas cadenas de herramientas y arquitecturas, y la integración con los sistemas centrales existentes.

 

5. La nube. Una infraestructura de nube híbrida abierta le permite a las organizaciones de TI proporcionar un mejor servicio a su empresa al brindar soluciones más ágiles y flexibles, sin dejar de lado la protección de los recursos o su preparación para el futuro.

 

6. Machine Learning. Según el International Business Times, en los próximos diez años, el 58% de las actividades en el trabajo se podría automatizar gracias a las máquinas cognitivas. El desarrollo técnico que permite a las computadoras aprender (inteligencia artificial) está viviendo un gran auge y promete gran potencial en áreas como medicina, servicios, finanzas, ciencia y empresarial, entre otros.

 

El código abierto está en todas partes

El común denominador es que estas nuevas tecnologías han basado gran parte de su desarrollo en código abierto, el cual les ha dado la flexibilidad y la rapidez para adecuarse a las demandas del mercado, de los usuarios y de las empresas que las implementan.

Y es que los veloces cambios que se han dado en los últimos 15 años le han exigido a las organizaciones inmediatez para reaccionar y adecuarse a ellos, así como capacidad para responder a las demandas de los consumidores que han adoptado las novedades tecnológicas –clientes que, al mismo tiempo, demandan una atención más personalizada.

Las compañías han descubierto que depender de sistemas y aplicaciones propietarias nos les da la capacidad de reacción que necesitan. Además, en las herramientas propietarias el ciclo de desarrollo de nuevas funcionalidades es absurdamente largo.

Dichas limitaciones han podido superarse a través de soluciones abiertas, en las que la participación de comunidades de desarrolladores, proveedores y empresas ha sentado las bases para la innovación y el intercambio de conocimientos vitales.

Sin duda, el código abierto es el ámbito que dará origen a nuevas oportunidades para que compañías e individuos puedan seguir innovando y prosperando en un mundo altamente competitivo. Lo mejor aún está por venir.

Por Olivia Salas, Regional Marketing Manager de Red Hat México

Leer más

Google habilita DeepMind para todo público

Google habilita DeepMind para todo público

La división de inteligencia artificial de Alphabet, Google DeepMind, pone a disposición de investigadores y público en general su plataforma.

La empresa cada vez más adopta iniciativas de código abierto para su ambiente de entrenamiento llamado DeepMind Lab en el depósito de Open Source GitHub, según se comentó este lunes.

Con esto, DeepMind muestra más apertura en torno a la investigación. De hecho, ahora cualquiera será capaz de descargar el código y personalizarlo para ayudar a entrenar sus propios sistemas de inteligencia artificial. También se podrán crear nuevos niveles de juego para DeepMind y sustituirlos por GitHub.

El hecho de poner su código en GitHub permitirá a otros investigadores saber si los avances propios de su desarrollador pueden ser replicados y permitirá a estos científicos medir el desempeño de sus propios agentes de inteligencia artificial en las mismas pruebas que DeepMind utiliza. ‘Ellos pueden tratar de superar nuestros resultados, si así lo desean’, comentó en una entrevista Shane Leeg, cofundador de la compañía.

Google DeepMind es una red neuronal capaz de aprender de manera similar a los seres humanos, así como acceder a una memoria externa como una máquina convencional de Neural Turing, con lo que resulta ser una computadora que imita la memoria a corto plazo del cerebro humano.

DeepMind es bien conocida porque creó un agente de inteligencia artificial que venció al mejor jugador humano del mundo en 2016 en el juego de estrategia Go. Este logro es considerado un gran avance en la informática porque Go tiene tantos movimientos posibles que no puede ser dominado a través del cálculo de la fuerza bruta. Un sistema de inteligencia artificial tiene algo parecido a la intuición humana para tener éxito en este juego.

Shane Leeg comentó que el agente de DeepMind que dominaba a Go no estaba entrenado en su plataforma de laboratorio, la compañía utilizó su entorno de laboratorio para varios de sus esfuerzos de vanguardia en los que un sistema debe dominar la percepción, la memoria, la planificación y la navegación.

Esto incluye un experimento reciente en el cual los investigadores de la compañía redujeron notablemente el tiempo que toma entrenar a un agente de inteligencia artificial para navegar a través del ambiente del juego y anotar puntos.

El agente de inteligencia artificial controla una esfera flotante a través de un punto de vista de ‘primera persona’. Este agente puede mirar y moverse en cualquier dirección, lo que no es el caso en otros entornos de entrenamiento de inteligencia artificial.

Con información de Bloomberg

Leer más

Open Source y Cloud impulsan a las pymes latinoamericanas

Open Source y Cloud impulsan a las pymes latinoamericanas

En lo que va del siglo actual, América Latina se ha convertido en una geografía altamente dinámica donde las empresas regionales y globales compiten por hacer negocio y aumentar su participación de mercado.

La región presenta un alto potencial: países en franco crecimiento, avances en tecnología y telecomunicaciones, apertura para adoptar nuevas tendencias como la nube y big data, y flujo de capitales de inversión que sigue llegando a sectores productivos clave.

Es cierto también que América Latina ha sufrido el impacto de problemas económicos y sociales, pero a pesar de estos retos, el mercado latinoamericano y mexicano es muy promisorio.

El reporte ‘Predicciones 2016 para la Industria de TI en América Latina’, de IDC FutureScape, revela que este año dos terceras partes de los proyectos de TI tienen entre sus metas el ahorro de costos.

El informe también revela que las organizaciones han comenzado la búsqueda de tecnologías más accesibles, flexibles y escalables, lo que ha promovido el uso de código abierto y de la nube.

De hecho, las compañías que optan por el open source y cloud estarán aumentando sus posibilidades de ahorrar y fortalecerse para seguir en la competencia, particularmente aquellas en los sectores de la banca, las telecomunicaciones y los servicios.

Muchas organizaciones en México y América Latina promueven activamente el uso del código abierto y de las plataformas de nube como los fundamentos de los sistemas de servicios para sus clientes y ciudadanos.

Además de la creciente adopción por parte de gobiernos y corporaciones, un detonador de este crecimiento será también la penetración del código abierto entre las pequeñas y medianas empresas (pymes), quienes están encontrando en el open source recursos a su alcance que les permiten innovar, ser más rentables y ágiles, al tiempo de responder más rápido a las demandas del mercado.

La necesidad de innovar y participar activamente en los mercados locales y regionales siempre estará presente en los países latinoamericanos.

Por José Luis Sánchez, Director General de Red Hat México

Leer más

Red Hat y Ericsson facilitan adopción de soluciones open source

Red Hat y Ericsson facilitan adopción de soluciones open source

Red Hat y Ericsson creen en el poder del código abierto para transformar el mercado de las tecnologías de la información y las comunicaciones (TIC). Es por ello que anunciaron una alianza para proveer una infraestructura de nube de código abierto lista para producción que abarca OpenStack, redes definidas por software (SDN) e infraestructuras definidas por software (SDI). Ericsson y Red Hat colaboran para ayudar a que sus clientes puedan aprovechar la oportunidad que les presenta el Internet de las Cosas (IoT), 5G y otras soluciones de comunicación de próxima generación mediante soluciones ágiles y modernas.

Ericsson es el proveedor líder de hardware, software y servicios para los proveedores de servicios y un referente indiscutible en NFV. Red Hat encabeza a la industria de la tecnología al ofrecer soluciones abiertas, escalables, flexibles y seguras, además de ser el líder en OpenStack, que se ha convertido en la plataforma preferida de las empresas de telecomunicaciones y los corporativos para las implementaciones en la nube.

Las compañías han colaborado durante largo tiempo para llevar Red Hat Enterprise Linux y Red Hat JBoss Middleware a los clientes de Ericsson. Hoy ambas empresas amplían esa colaboración para concentrarse en la infraestructura NFV (NFVi), OpenStack, SDN, SDI y los contenedores, y para ayudar a definir la próxima generación de tecnología moderna para la industria de las comunicaciones, que incluye:

  • Colaboración previa: Las compañías colaboran activamente en los proyectos y comunidades de código abierto – entre los que se encuentran OPNFV, OpenStack y OpenDaylight – a fin de responder a las inquietudes de los clientes en lo que respecta a la dependencia que deriva de las bifurcaciones propietarias, diferenciando a la asociación de otros proveedores. Los equipos de ingeniería de ambas compañías colaborarán para satisfacer los requerimientos de los clientes en los proyectos de desarrollo de código abierto previos, ayudando a acelerar la innovación tecnológica para las implementaciones escalables en la nube.
  • Certificación de soluciones y nuevas ofertas conjuntas: Red Hat y Ericsson colaboran en la creación de las hojas de ruta del hardware y software dirigidos al desarrollo de nuevas ofertas conjuntas para infraestructura NFV, SDN y SDI. A través de esta colaboración, las compañías prevén trabajar juntas para certificar la plataforma y la cartera de soluciones de Ericsson, que incluye Ericsson Cloud Execution Environment, la solución Ericsson Cloud SDN e Hyperscale Datacenter System 8000 para Red Hat Enterprise Linux y Red Hat OpenStack Platform, con el respaldo de arquitecturas de referencia y laboratorios.
  • Ericsson está ampliando su solución de infraestructura NFV para incluir también Red Hat OpenStack Platform a fin de cubrir las necesidades de los proveedores de servicios de todo el mundo que necesitan contar con una infraestructura ágil y totalmente abierta. Para sus soluciones conjuntas de infraestructura NFV, SDN y SDI, las compañías planean trabajar juntas para ofrecer soluciones de fácil implementación que comprendan la implantación y la gestión automatizadas.
  • Alineamiento técnico para fomentar la innovación y la adopción de contenedores: Tanto Red Hat como Ericsson consideran que las tecnologías de contenedores son un factor fundamental de la evolución de la plataforma y colaborarán en actividades de desarrollo, por ejemplo, en las comunidades CNCFF y OCI.
  • Respaldo de los líderes de la industria: Las cargas de trabajo de Ericsson basadas en Red Hat Enterprise Linux participarán del programa de certificación de Red Hat para aplicaciones que corren sobre Red Hat OpenStack Platform. Las soluciones conjuntas contarán con el respaldo de los acuerdos de nivel de servicio que ofrece Ericsson.
  • Servicios profesionales: Los clientes que buscan que sus empresas evolucionen en la modernización de NFV, TI y del centro de datos pueden beneficiarse de la experiencia de Red Hat en asesoramiento y capacitación en código abierto y la habilitación de tecnologías emergentes, así como de la experiencia de Ericsson en consultoría integral, integración de sistemas, servicios gestionados y servicios de soporte. La combinación de carteras de tecnologías, servicios, capacitación y certificaciones de Red Hat y Ericsson permiten a nuestros clientes transformar su negocio para la modernización de NFV, TI y del Centro de Datos. A través de esta capacidad conjunta, los clientes obtienen acceso a un equipo global que puede prepararlos para el éxito en el mercado TIC dinámico de hoy.
Leer más

Rusia desplaza software con licencia por código abierto

Rusia desplaza software con licencia por código abierto

En medio tensiones políticas con Estados Unidos, Rusia pretende reducir la dependencia de Oracle, Microsoft e IBM.

Para ello, la Duma, cámara baja del parlamento ruso, está redactando un proyecto de ley para restringir a las agencias gubernamentales en la compra de licencias, dando preferencia al software de código abierto.

Esto sería un complemento a la resolución del año pasado que limitaba las compras de programas extranjeros.

Entre las diversas características del software libre, es relevante la no dependencia y la libertad que los usuarios tienen para cambiarlo, adaptarlo o sustituirlo, ya que no requiere licencias y otorga los derechos que de otro modo estarían restringidos por la propiedad del autor.

Muchas empresas de software locales están ofreciendo productos basados en marcos extranjeros, tales como WebSphere de IBM o ASP.net de Microsoft, dijo Andrey Chernogorov, secretario ejecutivo de la comisión de la Duma de sistemas información estratégica. ‘Estamos tratando de cerrar este escapatoria para las compras estatales, ya que provoca riesgos a la seguridad’.

La finalización de la asociación de IBM con el proveedor ruso Lanit el año pasado, creó una vulnerabilidad potencial para sitio web zakupki.gov.ru del gobierno, que se basa en una plataforma IBM patentada, de acuerdo con una nota explicativa el proyecto de ley. Además de que los derechos de licencia que los fabricantes de software rusos pagan a sus socios extranjeros, lo cual incrementa el costo de sus productos.

De acuerdo con documentos de la Duma, algunas administraciones regionales ya han comenzado el cambio de Oracle al software libre adaptado a sus necesidades por programadores locales.

El presidente ruso Vladimir Putin insta a las entidades estatales y empresas para eliminar preocupaciones sobre la seguridad y fiabilidad, después de que las empresas estadounidenses cerraron los servicios de pagos en Crimea, con posterioridad de la anexión de Rusia en 2014.

Las tensiones entre Rusia y Estados Unidos han aumentado recientemente sobre las fallidas conversaciones de paz en Siria y la suspensión de pláticas destinadas a reducir el riesgo de la proliferación nuclear.

Con información de Bloomberg

Leer más

Linux cumple 25 años de existencia

Linux cumple 25 años de existencia

Desde que Linus Torvalds lo anunciara en Usenet, hace 25 años, Linux se ha transformado en la piedra angular del cómputo empresarial, la base de gran parte de la innovación del centro de datos.

Actualmente, los diferentes sabores del sistema operativo Linux son tan numerosos y generalizados que, aún un cuarto de siglo después, su adopción sigue aumentando y continúan surgiendo innovaciones.

La magnitud de la influencia de Linux es difícil de explicar: la Bolsa de Nueva York, una de las organizaciones de TI más sofisticadas del mundo, señaló que ‘fluye como el agua’.

Se puede comprender el papel que desempeña Linux de dos maneras distintas:

  1. Como una barrera de entrada, extremadamente baja, a un kernel innovador de un sistema operativo de alta calidad.
  2. Como un rompehielos para el movimiento más amplio del software de código abierto.

 

Linux es una solución de código abierto, pero el código abierto no es sólo Linux

El código abierto ya existía antes de Linux. No obstante, si no fuera por Linux, no existiría en su forma actual. Linux actuó como el catalizador para el movimiento del software de código abierto. Los triunfos alcanzados permitieron una mayor adopción e innovación y una mayor legitimidad para otros proyectos y comunidades.

Tomemos como ejemplo la plataforma GitHub, que hoy es el hogar de gran parte de las comunidades y los proyectos de código abierto del mundo. GitHub está diseñado sobre el software git, que fue creado por Linus Torvalds, el gran maestro de Linux, para llevar orden al desarrollo del kérnel de Linux.

Nunca fue pensado para ser el motor de este sistema de almacenamiento masivo que es hoy. Esta es una situación recurrente en el código abierto, donde los proyectos y las herramientas iniciaron originalmente para apoyar a Linux pero que han crecido hasta transcender esos límites, para así servir a la comunidad en su conjunto y no solamente a Linux.

 

El estándar de la innovación

Linux tuvo además un profundo impacto fuera del ámbito del código abierto. No sólo debido a la innovación evidente del kérnel, sino también a través de una innovación estandarizada. Nuestro CEO, Jim Whitehurst, suele decir que las piezas intercambiables de la industria de manufactura de comienzos del siglo XX eliminaron gran parte de los procesos “a la medida” (que formaban parte de ella), haciendo posible que prosperara una innovación genuina en las plataformas comunes.

Esto es exactamente lo que Linux ha hecho durante 25 años: ofrecer una plataforma común, estandarizada, predecible, que permite innovar sobre la innovación. El cómputo de nube, por ejemplo, es el resultado de esta innovación estandarizada. Sin la eficiencia técnica y de costos que brinda Linux, el cómputo de nube luciría totalmente distinto – si es que existiera –, sería algo más parecido a los stacks UNIX aislados (de comienzos de la década de los noventa) que a los servicios generalizados y flexibles que esperamos en la actualidad.

Los contenedores de Linux son otro ejemplo de innovación. Estos contenedores usan componentes estandarizados de Linux para proveer una nueva forma de agrupar y consumir aplicaciones empresariales. También hemos observado en ellos el surgimiento de mayor innovación, desde el proyecto Docker hasta Kubernetes, creando un mercado emergente para aplicaciones y herramientas que pueden manejar cientos de procesos sencillos y aislados.

Finalmente, el hardware no es inmune a los efectos de la innovación de Linux. Al proporcionar una plataforma estandarizada, Linux abrió un espacio entre las aplicaciones y el hardware, que dio lugar al surgimiento de los servidores básicos x86 e incluso a la evolución de nuevas plataformas hardware como ARM y System on Chip (SoC). Esta base común para el cómputo ha permitido que las TI empresariales crezcan, haciendo hincapié en la innovación en lugar de sólo mantener funcionando los sistemas con altos costos de mantenimiento y de licenciamiento.

 

Más allá del centro de datos

Linux, como fuerza motriz de la metodología del código abierto, también ha tenido un efecto profundo en nuestra cultura. A medida que el protagonismo del código abierto y Linux se acentuó, hemos observado cada vez más iniciativas de gestión abiertas y esfuerzos empresariales impulsados por comunidades, como el crowdsourcing o la colaboración abierta, e incluso Kickstarter. El concepto de colaboración transparente y abierta se funde perfectamente con un mundo cada vez más interconectado, especialmente con el auge de las redes sociales; haciendo de las soluciones de código abierto una tendencia que transciende el sector de la tecnología.

 

25 años…y los que faltan

Linux ha logrado mucho en su corta vida: ha sido el impulsor de las soluciones de código abierto en las empresas, el adalid de la innovación y la apertura entre culturas e industrias, y mucho más. ¿Cuáles serán los desafíos durante los próximos 25 años?

  • Seguridad: como el fundamento de las implementaciones de TI empresariales, Linux no es sólo una capa de software propicia. Hoy es parte de la infraestructura de seguridad crítica de muchas organizaciones. Esto significa que se necesitan más mecanismos sofisticados para proteger los datos y las aplicaciones, y que las fallas o vulnerabilidades deben ser diagnosticadas y remediadas antes de poder aprovecharse de ellas.
  • La evolución del hardware: la estandarización del hardware (gracias a Linux) deriva en la existencia de más opciones que se actualizan con mayor frecuencia. Linux necesita conservar su condición de gran estandarizador, lo que implica que debe adaptarse a un nuevo ecosistema de chips y metodologías de hardware en constante evolución.
  • Contenedores de Linux: para una innovación que lleva su nombre, los contenedores de Linux son los que tienen más potencial de conmocionar a Linux (y al código abierto) en el próximo cuarto de siglo. Desde la redefinición del ciclo de vida de las aplicaciones empresariales hasta los sistemas operativos que tal vez necesiten existir sólo por unos pocos milisegundos, Linux continuará impulsando la automatización, la escalabilidad y el manejo que requieren los contenedores.

Gracias a Linux, el código abierto hoy es protagonista en la TI empresarial y en el mundo corporativo global. Sin él, muchas de las herramientas cotidianas que damos por sentado, desde los servicios bajo demanda hasta la VoIP, no existirían o serían muy distintas. Aun cuando debamos responder las preguntas acerca del futuro, existe una cuestión que se destacará por siempre: le debemos una parte considerable de nuestro mundo actual a un solo mensaje publicado en Usenet en el año 1991.

Brindo por estos 25 años de Linux, y porque sean muchos años más.

Por Gunnar Hellekson, director de Gestión de Productos, Red Hat Enterprise Linux y Red Hat Enterprise Virtualization

Leer más

10 predicciones en tecnología para 2016 en AL

10 predicciones en tecnología para 2016 en AL

IDC presentó sus 10 predicciones de tecnología para 2016, en el que espera un crecimiento del 3.3% en la región.

Ricardo Villate, Vicepresidente de IDC Latinoamérica resaltó los desafíos que las compañías están enfrentando en la región con un año de fuertes devaluaciones contra el dólar americano de casi un 15% en Chile y México; 33% en Colombia, y hasta 42% en Brasil.

Las principales tendencias de tecnología que impactarán a las empresas en la región en el 2016 y adelante son:

 

1.- Para el 2017, uno de cada 3 CEOs de las 3,000 compañías más grandes en la región, pondrán la transformación digital (DX) como base de su estrategia corporativa

 

Aunque hablar de la transformación digital está muy de moda hoy en día, dicho proceso esta recién empezando en la región.

De acuerdo con un estudio de IDC, el 26% de los CIO en compañías grandes están iniciando su ‘camino digital’ en 2016, pasando de experiencias y productos digitales inconsistentes a su creación de manera ‘gerenciada’, repetible, y finalmente disruptiva, usando tecnología digital de Tercera Plataforma en su modelo de negocio.

Para el 2016, IDC estima que unos 4.5 mil millones de dólares de nuevo gasto en TI, serán motivados por iniciativas de transformación digital en la región.

 

2. – Workload First: La carga de trabajo será el punto de partida de las decisiones de inversión en infraestructura de 3ra Plataforma en la era DX e involucrará a más del 40 % de las inversiones en infraestructura de TI para el 2018

 

Las empresas de Latinoamérica están entrando en un modo de adopción de la nube más amplio y profundo. Motivadas por nuevas aplicaciones y cargas de trabajo, las inversiones en infraestructura de TI para la tercera plataforma están creciendo mucho más rápido que las de las arquitecturas tradicionales, que muestran incrementos de dos dígitos en un mercado de hardware empresarial en declive.

Por ejemplo, las inversiones en Software Defined Everything (SDx) o “Definido por Software” crecerán más del 50% en el 2016.

 

3.- En 2018 más del 40% del gasto empresarial de TI de infraestructura, software, servicios y tecnología estará basado en soluciones de nube, llegando hasta la mitad en el 2020

 

Los servicios en la nube ahora son parte del portafolio de la mayoría de los proveedores de TIC y la razón es simple: se han convertido en la plataforma de elección para cualquier nueva implementación de TI.

Cuando se trata de la transformación digital, la nube es un factor clave. Las soluciones en la nube se han convertido indispensables. En el 2016, las inversiones en los servicios de nube pública y privada hospedada remotamente crecerán un 40% llegando a 3.6 mil millones de dólares en la región.

 

4.- En el 2016 un 45% de las compañías en la región alineará sus esfuerzos de TI y de las líneas de negocio, hacia una estrategia definitiva de movilidad

 

La movilidad sigue siendo una de las iniciativas de mayor prioridad para las compañías en Latinoamérica. Mientras la movilidad hasta ahora se ha centrado en las personas y los dispositivos, el próximo paso será alinear los procesos organizacionales (marketing, servicio al cliente, soporte técnico, etc.) y el ecosistema de la industria (proveedores, clientes, reguladores, etc.) con los beneficios de una organización con movilidad como su base.

Con el cambio de movilidad hacia fines estratégicos, la participación de diversos grupos dentro de dicha organización será cada día más integrada.

 

5.- Los diseños de dispositivos de cómputo ‘disruptivos’ cambiarán la manera en que los empleados crean, acceden e interactúan con información, con más de 14 millones de dispositivos ‘híbridos’ vendidos en el 2016 en la región.

 

Con la llegada masiva de tablets 2-en-1, computadoras convertibles o phablets (smartphones con pantallas de 5.5 – 6.9 pulgadas), las compañías tienen que pensar en usos innovadores y productivos para sus empleados que usan dispositivos más livianos y siempre conectados.

Esto es especialmente importante para 1 de cada dos empresas en la región que ya permiten traer el dispositivo propio al trabajo (BYOD). Tanto aplicaciones de software como procesos internos, tienen que ser reanalizados para ver si están siendo utilizados de la mejor manera posible.

 

6.- En el 2016, el 30% de las compañías de productos de consumo masivo y venta al detal van a invertir en tecnologías de la tercera plataforma para sacar ventaja de la explosión de comercio electrónico que cada vez más está creciendo bajo la superficie de estancamiento económico de la región.


Llegó el momento crítico para invertir en soluciones que permitan que los consumidores compren productos o servicios desde cualquier modo o dispositivo. Más del 55% de la población de Latinoamérica estará conectada en el 2016 y gastará más de 68 mil millones de dólares en compras online en los 6 países más relevantes de la región, alcanzando los 100 mil millones de dólares dentro de los tres años.

El comercio electrónico ya no es un diferenciador; a partir del 2016 será un factor de supervivencia. Cada organización debe proveer a sus clientes una experiencia consistente sin importar el canal o método digital que él escoja.

 

7.- Antes de que termine el 2016, casi la mitad de las empresas estarán implementando estrategias de Seguridad de Próxima Generación (Next Generation Security o NGS en sus siglas en inglés) invirtiendo en consultoría, servicios y tecnología de seguridad

 

Las soluciones de NGS son soluciones de seguridad optimizadas para trabajar mejor con la escala masiva y cobertura expansiva de la Tercera Plataforma. Aunque 7 de cada 10 empresas afirman estar en proceso de implementar una solución más de seguridad de nueva generación, 1 de esos 7 no tendrá éxito por la falta de competencia interna.

Entre el IoT (Internet de las Cosas), la explosión de tráfico desde dispositivos móviles, o la migración de aplicaciones hacia la nube, el tema de seguridad es cada día más crítico. IDC pronostica que en el 2016 las compras en soluciones de seguridad basados en la nube crecerá un 53% en Latinoamérica.

 

8.- Durante el 2016, más de 2/3 de las iniciativas de proyectos de TI requerirán demostrar ahorros de costos, poniendo a la Tercera Plataforma de código abierto (sus componentes Open Source) en el centro de atención.

 

Con el desafío económico que muchas compañías viven, las empresas están obligadas a considerar reducir sus costos manteniendo soluciones tecnológicas escalables y flexibles a la vez.

Las soluciones de Open Source en modelos de tecnología on-demand son un imperativo. IDC pronostica que los proveedores de sistemas operativos y de plataformas de productividad empresarial de código abierto crecerán un 30% en el 2016.

 

9.- Mientras Internet de las Cosas (IoT) ya ‘cruza el abismo’, diez casos de uso en manufactura, transporte, consumo, gobierno y servicios públicos representarán más del 80% del gasto en IoT de la región en el 2016.

 

En Latinoamérica, el mercado de IoT crecerá de 7.7 mil millones de dólares en 2014 a 15.6 mil millones de dólares en el 2020, mientras la cantidad de dispositivos o ‘cosas’ de Internet de las Cosas crecerá de 295 millones a 827 millones.

Actualmente, 59% de las empresas de la región están evaluando iniciativas de IoT para el 2016. IDC ha identificado que 10 casos de uso, de una lista de cerca de treinta en 9 mercados verticales presentes en la región, representan la mayoría de la inversión.

 

10.- Hasta el 2018, una tercera parte de las compañías que buscan la transformación digital, va a agregar habilidades de diseño cognitivo y realidad aumentada/virtual a sus aplicaciones.

 

Aunque los términos cómputo cognitivo o realidad aumentada/virtual todavía son nuevos, en el 2016 las compañías van a empezar a ver soluciones innovadoras usando herramientas como Watson Analytics de IBM, Microsoft HoloLens u OculusRift para crear herramientas de trabajo.

Aunque las empresas grandes van a estar interesadas, IDC cree que las iniciativas más innovadoras pueden venir de compañías pequeñas y las startups de la región. Aquellas empresas que inicien su camino de Transformación Digital deberán crear competencia en el desarrollo de este tipo de soluciones.

Leer más
Página 1 de 512345