40% de las empresas que usaron almacenamiento virtual perdieron datos

septiembre 27, 2013 § 1 comentario

El 80% de las empresas cree que almacenar su información en entornos virtuales reduce las opciones de pérdidas de datos, pero la realidad demuestra que no es así. Así lo apunta un estudio de Kroll Ontrack, que señala que volver a generar los datos perdidos cuesta mucho tiempo y recursos a la empresa.

Hoy en día, el 84% de las empresas están optando por el almacenamiento virtual, y cerca de un tercio tiene entre el 75 y el 100% de su información guardada en un entorno virtualizado, creyendo que está segura. Sin embargo, como pone de manifiesto una encuestra de Kroll Ontrack, en el último año, el 40% de estas empresas sufrió al menos una pérdida de datos en entornos virtuales

A pesar de la realidad que dibujan estos datos, el 52% de las empresas sigue creyendo que el software de virtualización reduce las opciones de pérdidas de datos. A este respecto, Nicholas Green, director general de Kroll Ontrack Iberia, explica que “es un error creer que los entornos virtuales son por su naturaleza más seguros o tienen menos riesgos de experimentar pérdidas de datos frente a otros sistemas de almacenamiento”.

Respecto a las causas de las pérdidas de datos virtuales, Green afirma que pueden ser muy diversas, incluyendo la corrupción de los archivos de sistema, el borrado de máquinas virtuales, corrupción del disco virtual interno, fallos en el RAID y otros sistemas de almacenamiento/servidores, así como archivos borrados o corruptos en los sistemas de almacenamiento virtualizados. “En estos casos, las consecuencias son normalmente más importantes porque la variedad y volumen de datos almacenados en un entorno virtual suelen ser mucho mayores que en un servidor físico individual o dispositivo de almacenamiento”, concluye Green.

Según la encuesta, sólo el 33% de las empresas que perdieron datos pudieron recuperar el 100% de los mismos. De ellas, el 43% reconoció haber vuelto a generar los datos perdidos, mientras que el 25% buscó una empresa de recuperación de datos. Sobre este punto Kroll Ontrack señala que volver a generar los datos perdidos nunca debería ser la primera alternativa de la empresa, ya que cuesta mucho tiempo y recursos a la empresa.

Fuente: CIOAL

Anuncios

Un curso no gratuito (pero gratuito) sobre tecnologías de nube ¿Cómo?

septiembre 26, 2013 § Deja un comentario

Siguen llegando oportunidades de capacitación gratuita para tu equipo (o uno mismo) y sigo comunicándolas, porque me parecen imperdibles. Primero, porque en este caso se trata de un curso con aula virtual que usualmente se arancela (si estás apurado por sacar la billetera, espera un momento y sigue leyendo). Sin embargo, en este caso, más allá de que el precio está publicado, existe la opción de acceder en forma completamente gratuita cumpliendo unos requisitos simples y mínimos  (nada de comprobantes de vacunación, ni tener que venir con autorización de los padres).

¡Ah! El curso es totalmente en español, orientado a la construcción de servicios de nube en las empresas (privada o pública) con Windows Server, System Center y Windows Azure sí, todo en un paquete). Se corre desde México pero participaremos varios miembros de nuestro grupo de nuevas tecnologías (me incluyo, mostrándote la nube en forma de infraestructura como servicio en Windows Azure).

Para inscribirte (y evitar pagar u$s 450) ingresa aquí. Arranca el 30 de septiembre, pero tendrás la oportunidad de acceder al contenido ya emitido si se te pasó el día, no te preocupes.

Fuente: Daniel Levi – Technet

Cinco preguntas clave para potencializar el uso de Big Data

septiembre 14, 2013 § Deja un comentario

Una tendencia como Big Data—denominado “el nuevo oro negro” por el Foro Económico Mundial—tiene la capacidad de mejorar los procesos de toma de decisión, reducir el tiempo de lanzamiento al mercado e incrementar las ganancias. Sin embargo, también puede presentar un riesgo determinante, desde desastrosas brechas en las bases de datos hasta temas de cumplimiento en materia de privacidad. Con la finalidad de ayudar a las empresas a mantener el control de un flujo cambiante y masivo de información, ISACA lanza la nueva guía titulada Privacidad y Big Data, la cual resalta puntos críticos y preguntas básicas a considerar sobre el manejo de una cantidad masiva de datos. Está guía se puede descargar de manera gratuita y en español desde la página http://www.isaca.org/Knowledge-Center/Research/ResearchDeliverables/Pages/Privacy-and-Big-Data.aspx

“Los CIOs a menudo se enfrenta a la presión por parte de su junta directiva y la de su presidente para implementar una estrategia para el manejo de un volumen importante de datos, sin antes considerar un protocolo de manejo y control de riesgos, con el único objetivo de ser un competidor importante en el mercado” expresó Richard Chew, CISA, CISM, CGEIT, analista de seguridad de la información en el Emerald Management Group. “La denominada tendencia del Big Data provee una importante ocasión para incrementar el valor de la información, sin embargo, una empresa puede ser mucho más exitosa a largo plazo si se establece políticas y marcos de referencia como COBIT” finalizó.

De acuerdo al texto Privacidad y Big Data, las organizaciones deben responder 16 preguntas básicas, las cuales incluyen cinco cuestiones clave. De ser ignoradas, pueden exponer a la empresa a un riesgo y daño importante:

1. ¿Nuestras fuentes de información son confiables?
2. ¿Qué tipo de información se está introduciendo sin exponer a la empresa a un conflicto legal o regulatorio?
3. ¿Cómo se están protegiendo nuestras fuentes, nuestros procesos y nuestras decisiones en relación a robos o acciones de corrupción?
4. ¿Qué tipo de políticas se han establecido para asegurar la confidencialidad de todos los empleados con respecto a la información de los principales grupos de interés de la empresa durante y después de que laboran aquí?
5. ¿Cuáles son las acciones emprendidas por la empresa, que puedan representar tendencias favorables que pueden ser aprovechadas por la competencia?

A medida que esta tendencia crece, las empresas requieren políticas de privacidad mucho más robustas, con soluciones que faciliten a las empresas prevenir brechas. De igual forma sean capaces de reforzar la seguridad frente a un ambiente tecnológico cada vez más complejo.

“Para lograr coordinar un correcto gobierno de TI, un manejo apropiado de riesgos, y una entrega efectiva de proyectos a implementar para el manejo de grandes volúmenes de información, muchas empresas han puesto en marcha un marco de referencia como COBIT desarrollado por expertos en el tema a nivel global” agregó Yves LeRoux, CISM, CISSP, presidente de la fuerza de tarea de ISACA y estratega en tecnología para CA Technologies.

“A través del uso de COBIT, las empresas pueden identificar de manera mucho más sencilla la información más susceptible, asegurarla a través de la aplicación de leyes y regulaciones así como un monitoreo proactivo de la actividad y la respuesta oportuna a las brechas de privacidad” finalizó.

Fuente: ISACA

Riesgos del Big Data: grandes errores en análisis de datos

septiembre 11, 2013 § 1 comentario

Nadie discute el valor que tiene el Big Data para optimizar los procesos y oportunidades de negocio de las compañías. Sin embargo, Big Data no es sinónimo de información de calidad, por lo que es clave saber analizar los grandes volúmenes de datos que se generan.

Una de las consecuencias principales de no tener la capacidad de análisis necesaria es que se pueden tomar decisiones erróneas que pueden afectar al desempeño de las organizaciones. Esto puede ser debido a información incompleta, fuera de contexto o datos alterados.

Gary King, director del Intitute for Quantitative Social Science de la Universidad de Harvard contó que con un grupo de investigación quisieron implementar un proyecto de Big Data para descubrir las tendencias del desempleo en los Estados Unidos. Para esto, fijaron como keywords para monitorear “Jobs”, “Desempleo” y “Clasificados”.

A partir de esto comenzaron a analizar la red por medio de una técnica llamada Sentiment Analysis en donde el grupo recolectó los tweets y otros post en diferentes portales que incluyera alguna de las 3 palabras. Observaron que una comenzó a tener una gran presencia en la red. Sin embargo, King luego descubrió que esta conducta no estaba relacionada con el desempleo, “lo que el grupo no se había dado cuenta es que Steve Jobs había fallecido”.

Más allá del hecho trágico, de esta experiencia quedó una enseñanza: la importancia que tiene comprender el contexto de cada dato que se analiza para poder actuar en consecuencia.

“Esta anécdota es una de muchas. Quien trabaje en esta área seguramente ha tenido experiencias similares”, agregó. Por esto es importante la visión crítica de los datos que se recopilan teniendo presente siempre el escenario donde se producen.
El Big Data debe ser considerado como una herramienta para potenciar y optimizar los negocios, pero se debe tener presente el valor agregado que tiene la interpretación humana con conocimiento de la coyuntura.

Fuente: CIOAL

#MEGApwn, informa la clave "indescifrable" de #Mega

septiembre 9, 2013 § 1 comentario

MEGA siempre ha dicho que la clave maestra para cifrar los archivos subidos es secreta y que ni ellos la tienen. Obviamente esto es mentira y MEGA o cualquier otra persona con acceso a al sistema puede encontrar esta clave fácilmente.

MEGAPwn es un simple Script Javascript de 32 líneas que se agrega como Bookmarklet en Firefox e informa la master key de MEGA, supuestamente secreta.

Esto demuestra que en realidad esta clave no está cifrada como nos querían hacer creer los de MEGA y que además puede ser fácilmente recuperada. Además esto permitiría a MEGA (y a cualquiera) abrir y leer los archivos de los usuarios.

Obviamente este engaño de MEGA también permitiría a fuerzas del orden, a través de una orden judicial o citación emitida contra MEGA, acceder y recuperar archivos de usuarios, incluso sin su consentimiento.

Esto simplemente demuestra uno de los muchos problemas graves e insolubles que se enfrenta cuando se hace criptografía en las aplicaciones web de Javascript, del lado del cliente. Numerosos criptógrafos respetados han advertido en contra de hacer esto durante años.

El sitio web de MEGA almacena la clave maestra “secreta” en el área de almacenamiento local del navegador. MEGApwn simplemente recolecta la suficiente cantidad de información como para probar la llave correcta.

Cristian de la Redacción de Segu-Info

Hackean Dropbox y muestran cómo acceder a los datos de los usuarios

agosto 30, 2013 § 1 comentario

La autenticación de doble factor que Dropbox implementó hace casi un año ha demostrado no ser tan segura como se pensaba. A primeros de julio se detectaba una vulnerabilidad crítica que permitía que un hacker superara esa autenticación que lo que hace es crear una segunda capa de seguridad.

Y hace unos días, durante la celebración de USENIX 2013, un congreso de seguridad que se ha celebrado en Washington, dos investigadores rompieron la seguridad de Dropbox interceptando datos SSL de los servidores y evitando la autenticación de doble factor del proveedor de almacenamiento en la nube y publicaron este trabajo en un documento [PDF].

Según los investigadores las técnicas que han utilizado para lograrlo son tan genéricas que creen que podrán ayudar en los futuros desarrollos de software.

“Dropbox es un servicio de almacenamiento de archivos basado en la nube utilizado por más de 100 millones de usuarios. A pesar de su enorme popularidad creemos que Dropbox como plataforma no ha sido analizada suficientemente desde un punto de vista de seguridad”, dicen los investigadores, que también comentan que ciertos análisis sobre la seguridad de Dropbox han sido “duramente censurados”.

El servicio de almacenamiento online ha respondido a los investigadores diciendo que aprecian las contribuciones de estos investigadores y de cualquiera que mantenga Dropbox a salvo. También puntualizan que para que el trabajo de los investigadores tuviera éxito, primero se tendría que comprometer completamente el ordenador del usuario, según un comunicado remitido a ComputerWorld.

Por el momento, lo que está a disposición de cualquiera es el proceso detallado de los investigadores, que incluye técnicas de inyección SQL e interceptación de datos SSL.

Fuente: ChannelBiz

Evolución del almacenamiento informático [Infografía]

agosto 27, 2013 § Deja un comentario

El crecimiento de la tecnología informática ha ejercido presión sobre la necesidad de desarrollar dispositivos de almacenamiento que pudieran responder a la demanda de mayor espacio de almacenamiento, carácter portátil y durabilidad. Durante las primeras décadas de la expansión del almacenamiento informático, se produjeron avances a un ritmo lento pero constante, mientras que en los años más recientes hemos sido testigos de una velocidad de desarrollo cada vez más rápida. Hemos pasado de contar en bits nuestro espacio de storage disponible a las capacidades prácticamente ilimitadas actuales. Click en la imagen para agrandar.

Bits (b): la tecnología de almacenamiento durante la década de los 50 consistía en tarjetas perforadas que podían almacenar alrededor de 960 b de información.
Megabytes (MB):

  1. Cinta magnética: surge en la década de los 60 en forma de bobina, con una longitud de hasta 4800 pies. También podía almacenar el mismo volumen de información que 10 000 tarjetas perforadas.
  2. Disquete de 5,25”: su atractivo radicaba en la posibilidad de utilizarlo como dispositivo de almacenamiento más portátil para los PC domésticos. En ellos se distribuían también los juegos de PC clásicos que se popularizaron en la década de los 70.
  3. Disquete de 3,5”: estos discos mantuvieron su popularidad durante tres décadas por sus capacidades de almacenamiento, su carácter portátil y su resistencia a los daños. El disquete de 3,5” podía almacenar alrededor de 1,44 MB.
  4. CD: con una capacidad de almacenamiento 450 veces superior a la de un disquete convencional, el CD fue un producto con una gran demanda durante la década de los 90 y aún sigue utilizándose.
  5. Disco ZIP: este dispositivo podía almacenar entre 100 y 750 MB y se convirtió en la opción idónea para hacer backups de archivos.

Gigabytes (GB): las unidades flash supusieron el siguiente paso en materia de almacenamiento de grandes volúmenes de datos, ya que pueden contener hasta 256 GB. Además de ser rentables y fáciles de utilizar, permiten almacenar una gran cantidad de datos.
Terabytes (TB): los discos duros portátiles pueden almacenar hasta 4 TB y son útiles para hacer backups de archivos importantes o de gran tamaño.
Almacenamiento ilimitado: la oportunidad de utilizar almacenamiento en cloud ofrece a los consumidores posibilidades de almacenamiento prácticamente ilimitadas. Gracias al almacenamiento en cloud, puede archivar, compartir, enviar y almacenar archivos, así como acceder a ellos, desde cualquier dispositivo con conexión a Internet.

¿Qué hace para pasar los datos de un dispositivo a otro? Comparta su experiencia a continuación.

Fuente: Revista CloudComputing

¿Dónde estoy?

Actualmente estás explorando la categoría cloud computing en Seguridad Informática.