lunes, 1 de diciembre de 2014

Computación en la nube

Computación en la nube (Cloud computing) o simplemente "la nube", es un tipo de sistema informático que se basa en los centros de datos remotos e Internet para gestionar servicios y aplicaciones que consumirán los usuarios desde diferentes plataformas, como lo son computadores, celulares, tabletas, etc.

El término "nube" es una metáfora de Internet, basado en la nube que se utiliza para representar la Internet en los diagramas de red. La computación en la nube, como bien se describía en el párrafo anterior,  se trata de que los usuarios mediante un navegador o browser puedan acceder a aplicaciones y servicios sin necesidad de instalarlas en localmente en sus dispositivos. Un ejemplo de esto puede ser el correo electrónico cómo Gmail o Outlook ya que ingresamos a un portal mediante un usuario y una contraseña, tenemos todos nuestros correo electrónicos almacenados en un servidor remoto y no tenemos que instalar ninguna aplicación localmente o el almacenamiento como Drive, en donde tenemos archivos que son nuestros almacenados en plataformas de terceros.


La computación en la nube tiene tres pilares fundamentales que son el software, la plataforma y la infraestructura. Con el software se hace referencia a que la nube a demostrado ser un buen negocio ya que al poder ejecutar software directamente en Internet desde un centro de datos centralizado se reducen sus costos. Cuando se habla de la plataforma se tiene en cuenta que ésta es prestada como un servicio a los usuarios igualmente que la infraestructura.
Existen tres tipos de nubes:

1. Nubes públicas: Se refiere al modelo estándar de la computación en la nube, en el cual los     usuarios acceden a servicios alojados en servidores externos a ellos.

2. Nubes privadas: Las nubes privadas se componen de plataformas que se encuentran en una empresa y no ofrecen su servicio a terceros, por lo que la empresa es la propietaria de la información y decide quien al puede usar y quién no.


3. Nubes híbridas: Estas combinan los recursos locales de una nube privada con la nube publica, por lo que la empresa utiliza sus recursos de nube privada y cuando necesite puede trabajar como nube publica.



sábado, 29 de noviembre de 2014

El sistema operativo

Un sistema operativo es un software o programa que se encarga de gestionar los recursos de hardware del ordenador, así como proveer servicios a los demás programas o aplicaciones. Por consiguiente se puede decir que el sistema operativo proporciona un entorno en el cual un usuario pueda ejecutar programas o aplicaciones informáticas en su ordenador de manera eficiente. Lo ideal es que el sistema operativo provea los servicios y asigne los recursos de manera de que el usuario que esta interactuando con él no lo note, es decir,  que sea totalmente transparente.
El sistema operativo se encarga de lo siguiente:

  • Gestión de procesos: Un proceso es un programa en ejecución. El sistema operativo crea, destruye, pausa y reanuda procesos.
  • Gestión de memoria:  El sistema operativo sabe cual programa usa la memoria, decide que programas se cargarán en ella, y la reclama en el momento que el proceso termina.
  •  Gestión de almacenamiento: El sistema operativo planifica los discos, gestiona el espacio libre, asigna almacenamiento y verifica que los datos se guarden en orden
  • Sistema de entrada y salida: Es un almacenamiento temporal o caché para manejar los dispositivos. el sistema operativo gestiona dicho almacenamiento temporal de entrada y salida y proporciona las interrupciones que utilizan los dispositivos conectados al ordenador para realizar sus tareas.
  •  Sistema de archivos: El sistema operativo se encarga de construir y manipular los archivos o los directorios, establece la correspondencia entre archivos  y su respectiva unidad de almacenamiento y realiza copias de seguridad de los archivos.
  •  Sistema de protección: El sistema operativo controla el acceso de los usuarios a los programas y directorios
  • Sistema de comunicación: El sistema operativo controla el envío y recepción de información por las interfaces de red, mantiene las conexiones virtuales entre aplicaciones locales y remotas.

Existen sistemas operativos para ordenadores, celulares, tabletas, routers, etc. Entre los sistemas operativos para ordenadores encontramos:
  • Microsoft Windows.
  • Mac OS.
  • Unix.
  • Linux
  • Chrome OS.
  • Android.
Entre los sistemas operativos para celular más comunes se encuentran:
  • Android.
  • IOS.
  • Blackberry OS.
  • Windows Phone.


viernes, 28 de noviembre de 2014

Servidor WEB

La Internet es algo muy común para nosotros hoy en día, y como usuarios finales la utilizamos sin darnos cuenta de cómo es que las páginas web funcionan. Aquí les explicaré de forma muy general que es un servidor web.

El servidor web se encarga del almacenar y difundir la información de las páginas web creadas en diferentes lenguajes de programación (El más común es HTML). Para esto se instala en el servidor un servicio de publicación en Internet y desde este servicio se muestra el sitio web que será consultado por los clientes desde sus navegadores (Arquitectura cliente-servidor). El servidor es quien almacena y sirve las páginas web mientras que los navegadores se encargan de realizar la petición a la página, interpretarla y mostrar el resultado al usuario. Para que el servidor y el cliente se entiendan la comunicación se hace mediante el protocolo HTTP, el cual está orientado únicamente a solicitud y respuesta por lo que no se guarda información sino que toda la comunicación se basa en pedir y entregar. 


El protocolo HTTP (Hypertext Transfer Protocol), como se menciono antes funciona mediante solicitudes y respuestas. Dichas solicitudes y respuestas viajan por la web sin cifrar por lo que lo hace un protocolo no seguro cuando en un sitio web se van a ingresar contraseñas. El protocolo HTTPS (Hypertext Transfer Protocol Secure) cifra la información que es enviada en la solicitud o recepción por lo que lo hace ser un protocolo seguro, por eso cuando se ingrese a un sitio que maneje contraseñas o información personal se deben asegurar que utilice el protocolo HTTPS.

Retomando el tema del los servidores web, los principales que encontramos son los siguientes::
  •  Internet Infomation Services de Microsoft (IIS): Es un servidor web que funciona en el sistema operativo Windows en el que además de procesar páginas HTML tambien funciona para páginas ASP, ASP.NET, PHP o Perl.
  • HTTP Apache: Es un servidor que funciona sobre plataformas Unix, Linux, Windows y Macintosh. Puede ejecutar páginas realizadas en lenguajes de programación como Perl, PHP, Python y Ruby.
  • Apache Tomcat: Funciona sobre cualquier plataforma que tenga la maquina virtual de Java. Sobre él se puede ejecutar código realizado en JSP.
Para que un sitio web pueda ser visto en Internet se tienen que tener en cuenta muchas más variables, pero en cuanto a la infraestructura el servidor web es la parte fundamental.





jueves, 27 de noviembre de 2014

Protocolo DHCP

El mantenimiento y configuración de una red pequeña puede ser relativamente fácil, pero mientras más crece la red se vuelve más compleja su administración. Cuando digo que la red crece me refiero a la cantidad de equipos que se conectan a esta, sabiendo que cada equipo debe tener configurada una dirección IP que se encuentre en el segmento de la red para poder funcionar correctamente.
Anteriormente la manera de asignar las direcciones IP a los equipos era manual, es decir que una persona debía ir a cada uno de los equipos y ponerle una dirección IP. A medida que las redes empezaron a crecer y a tener más y más equipos utilizándolas la asignación manual de direcciones IP se volvió una tarea compleja y desgastante. Este tipo de asignación es la que se conoce comúnmente como estática.

A partir de la problemática de asignaciones de direcciones IP surge el protocolo DHCP (Dynamic Host Configuration Protocol), el cual provee direcciones IP de manera automática o dinámica a los equipos desde un servidor que tenga instalado, configurado y activo el servicio DHCP. En el servicio DHCP se configura el rango de direcciones IP que se desea asignar, la máscara de la red, la puerta de enlace (Gateway) y el DNS.  La asignación dinámica de una IP se realiza de la siguiente manera:

1. Si un equipo se conecta a una red y en su configuración tiene activa la opción de obtener su IP por DHCP se realizara una petición broadcast llamada DHCP Discovery, es decir, se va a enviar a todos los equipos de la red una petición DHCP.



2. Cuando la petición DHCP Discovery llega a un servidor DHCP, este último le responde con un DHCP Offer. De esta manera le ofrece su servicio DHCP.
3. Cuando el cliente obtiene el DHCP Offer  envía un petición DHCP Request, solicitando una dirección IP especifica que el servidor DHCP le indico en el paso anterior.

4. Cuando el servidor recibe la petición DHCP Request envía un paquete al cliente con la concesión de los parámetros de red. Dicho paquete es un DHCP Pack, de esta manera termina el proceso de asignación de IP por DHCP.


En conclusión el servicio DHCP es una manera que permite asignar automáticamente direcciones IP desde un servidor a un cliente, reduciendo la complejidad en la administración de direcciones IP dentro de una empresa o un proveedor de servicios de Internet.

jueves, 31 de julio de 2014

Deduplicación de datos

Infinidad de datos, algo muy común actualmente en las empresas y es peor aún cuando hablamos de duplicidad de información. Con la deduplicación de datos se logra reducir el tamaño de la información almacenada de manera efectiva. Básicamente lo que hace la deduplicación es tomar los bloques de datos repetidos en varios archivos y guárdalos una única vez. Por ejemplo. Una empresa de 100 empleados envía un correo a todos ellos con un archivo adjunto. Si cada uno lo descarga estarían guardando una copia idéntica del archivo, generando, así, duplicidad de información. Pero aplicando deduplicación de datos, este archivo se guardaría una sola vez.Si este archivo pesa 1 MB entonces se ahorrarían 99 MB de espacio de almacenamiento.


La deduplicación es usada en servidores y como se puede observar en el video,su uso principal se está dando el las copias de backup. Actualmente los sistemas operativos y las aplicaciones de backups vienen con esta opción nativa por la gran acogida que ha tenido.

Y hablando de discos duros...

Hoy hablaremos de dos tipos de discos duros: SAS y SSD.

Los discos duros SAS son dispositivos electromecánicos hechos para leer y almacenar grandes volúmenes de información a altas velocidades por medio de cabezas de lectura y escritura. Son discos que en su interior están libres de polvo y aire con el fin de evitar choques entre partículas, evitando de esta manera la perdida de datos. Son discos muy veloces ya que su proceso de lectura y escritura se realiza de manera paralela.En el medio tiene un disco magnético que permanece girando todo el tiempo que esta encendido, por dicha razón se miden en revoluciones por minuto (RPM). En el mercado se encuentran 3 tipos de revoluciones para estos discos 7200, 10000 y 15000.
En cuanto al almacenamiento se pueden encontrar discos entre 72 GB y 2 TB.


Los discos duros SSD (discos de estado sólido) pueden llegar a ser 10 veces más rápidos que los discos tradiciones, esto debido a que no tienen partes mecánicas sino electrónicas, haciendo que no generen ruido y produzcan menos calor. Así como son más rápidos en lectura y escritura también son mucho más costosos que un disco mecánico, además que tienen una vida útil que se va reduciendo a medida que se van usando, al igual que su velocidad.

lunes, 5 de mayo de 2014

Servidores Blade

En los últimos años se ha tratado muy seriamente el espacio físico que ocupan los equipos en los centros de datos, y lo podemos ver en tecnologías como la virtualización, pero los fabricantes de hardware también se dieron a la tarea de consolidar servidores dando como resultado los Blade.

Generalmente se distinguen entre servidores de rack o "raqueables" y los Blade, pero puede ser una comparación errónea ya que los Blade también son servidores de rack, pero con la diferencia que en un chasis pueden ir varios servidores físicos alojados.


Cada servidor es llamado "cuchilla", de ahí su nombre (Blade), y se comunica con un backplane común para todas las cuchillas. Pero el chasis y el backplane  no solo integra servidores, también se compone de switches, ventilación, fuentes de poder, con el fin centralizar recursos y poder generar ahorro de energía y espacio.

Por lo general las empresas grandes son las que se permiten comprar este tipo de equipos por el costo que tienen. No quiere decir que son costosos, si lo miramos desde el punto en que se tenga previsto llenar todas las cuchillas y switches, pues seria más barato que comprarlos por separado, pero sigue siendo costoso para las empresas pequeñas o medianas.

Por lo general cuentan con una administración centralizada por lo que se hace más fácil de operar y administrar que una granja de servidores donde cada uno tiene su interfaz de administración.

Algunos de estos equipos pueden cambiar las cuchillas o servidores por sistemas de almacenamiento, es decir, en lugar de llenar el chasis con servidores se usa una parte para poner un almacenamiento tipo SAN incluyendo controladoras, dando más versatilidad a este tipo de tecnología.

La gran desventaja que tiene este tipo de equipo es que todo depende del backplane, entonces si éste se daña se tendria que apagar el equipo y por ende todos sus componentes. Los fabricantes de éstos equipos ya saben de estas fallas y cada vez tratan de hacer que los componentes no dependan tanto del backplane o tener planes de contingencia dentro del mismo chasis en caso de falla del backplane. A pesar de ésto sigue siendo una muy buena opción para muchas empresas que lo utilizan en todo el mundo.

El siguiente vídeo explica un poco sobre la tecnología Blade:



martes, 11 de marzo de 2014

Virtualización......Potencia y ahorro!




¿Sabían que un servidor en un centro de datos únicamente utiliza entre un 10% y 30% de sus recursos totales?

¿Estas dispuesto a dejar de utilizar un 70% de los recursos de un servidor en el cual invertiste una gran suma de dinero?

¿Justifica invertir en un excelente servidor si realmente se va a alojar una o dos aplicaciones allí?

Estas y muchas otras preguntas pueden ser resultas con una sola palabra: Virtualización.

No es un termino nuevo, ya se utilizaba la virtualización en los mainframes o computadoras centrales pero de un tiempo hacia acá fue posible incursionar en este tema masivamente. La virtualización no es moda, es una necesidad que presentan actualmente los centros de cómputo ya que tienen tanto volumen de información que se vuelven inmanejables.

Actualmente en un centro de computo a nivel empresarial se deben administrar un alto número de servidores y esto cada vez se vuelve mucho mas complejo pues se necesitan múltiples consolas para ver cómo se está comportando el centro de datos.
Adicionalmente los costos en los centros de datos aumentan mientas más servidores se tienen ya que éstos ocupan un espacio físico, consumen electricidad y refrigeración. Además muchas de las licencias de los servicios son por hardware y para rematar, existen estudios que aseguran que un servidor se utiliza entre el 10% y 30% de sus recursos totales.


¿Entonces que es la virtualización de servidores?

Virtualizar un servidor consiste en instalar algo llamado hipervisor que tiene la función de administrar los recursos de la máquina como lo son el almacenamiento, la memoria, la red, el procesamiento, y sobre él se crearan máquinas virtuales que accederán a los recursos físicos del servidor. Cada máquina virtual cuenta con sus recursos virtuales, que tienen la ventaja de que son más flexibles que los recursos físicos.

La siguiente imagen muestra cómo es esto:




Sobre cada máquina virtual se instala el sistema operativo que se necesite. Es decir que cada máquina virtual, aunque comparta el mismo host, o servidor físico es una máquina independiente.
Las máquinas virtuales realmente son un conjunto de archivos.



Las máquinas virtuales tienen algunas características importantes:

Aislamiento: Las máquinas virtuales son totalmente independientes, entre sí y con el hipervisor. Por tanto un fallo en una aplicación o en una máquina virtual afectará únicamente a esa máquina virtual. El resto de máquinas virtuales y el hipervisor seguirán funcionando normalmente.

Seguridad: Cada máquina tiene un acceso privilegiado (root o administrador) independiente. Por tanto, un ataque de seguridad en una máquina virtual sólo afectará a esa máquina.

Flexibilidad: Podemos crear las máquinas virtuales con las características de CPU, memoria, disco y red que necesitemos, sin necesidad de “comprar” un ordenador con esas características. También podemos tener máquinas virtuales con distintos sistemas operativos, ejecutándose dentro de una misma máquina física.

Agilidad: La creación de una máquina virtual es un proceso muy rápido, básicamente la ejecución de un comando o seguir un wizzard de instalación. Por tanto, si necesitamos un nuevo servidor lo podremos tener casi al instante, sin pasar por el proceso de compra, configuración, etc.


Portabilidad: toda la configuración de una máquina virtual reside en uno o varios ficheros. Esto hace que sea muy fácil clonar o transportar la máquina virtual a otro servidor físico, simplemente copiando y moviendo dichos ficheros que encapsulan la máquina virtual.


Recuperación rápida en caso de fallo: Si se dispone de una copia de los ficheros de configuración de la máquina virtual, en caso de desastre la recuperación será muy rápida, simplemente arrancar la máquina virtual con los ficheros de configuración guardados. No es necesario reinstalar, recuperar backups y otros procedimientos largos que se aplican en las máquinas físicas.


Por otro lado la virtualización genera ahorros en espacio físico en los centros de datos, ya que se pueden consolidar servidores, es decir, tener más servidores en menos espacio. También el ahorro se ve en la energía, pues son menos servidores conectados y prendidos 24 horas. Es mucho más sencillo administrar un datacenter virtualizado.

Algunos de los proveedores de motores de virtualización son los siguientes:


Realmente la virtualización es una excelente opción para la expansión de nuestro centro de datos. Pero aquí no acaba este tema, la vitualización ha dado mucho más al mundo de la tecnología, temas que trataremos mas adelante.







lunes, 10 de marzo de 2014

Almacenamiento NAS y SAN



NAS y SAN, dos acrónimos muy comunes en la infraestructura TI, pero ¿Sabemos realmente de que se trata cada uno?, ¿Cuales son sus diferencias?

NAS (Network Attached Storage):

Las NAS son dispositivos de almacenamiento que son accedidos por los ordenadores clientes a través de la red para obtener los archivos allí almacenados. Es decir, que desde las NAS se crean y se comparten volúmenes de almacenamiento, como carpetas compartidas, que luego los usuarios, desde un PC, podrán acceder para guardar información allí.

Son muy comunes en las empresas, ya que entre empleados de la misma o diferentes áreas deben compartir información, y es mucho más seguro tenerla almacenada en una NAS que en los computadores personales de los empleados.

Las NAS realmente están conformadas por varios discos, los cuales pueden estar en RAID (Ver sobre RAID) para garantizar mayor seguridad si ocurre el daño de uno de esos discos. Las más avanzadas o de mayor tecnología cuentan con tecnologías como la deduplicación, para optimizar el espacio de los discos o auto tiering para mejorar la eficiencia de los archivos que se están utilizando en el momento y ahorrar costos en caso de tener que comprar discos adicionales.

SAN (Storage Area Network):

Las SAN, así como las NAS, son dispositivos de almacenamiento en red, pero estas no son utilizadas para compartir el almacenamiento como una carpeta sino como una LUN o Logical Unit Number. Una LUN es simplemente una dirección que apunta a un disco duro a a un arreglo de discos.

Para comprenderlo mejor citemos un ejemplo. Tenemos un servidor de base de datos en nuestra empresa, y sobre él vamos a poner una base de datos muy importante. si se tiene un almacenamiento SAN se le puede mostrar un volumen o LUN de ese almacenamiento de la SAN al servidor, por ejemplo 100 GB, para que lo vea como un disco. En ese disco ponemos la base de datos de la empresa y si algo le pasa al servidor la base de datos no estará almacenada allí sino en la SAN.

Las SAN se comunican con los servidores, generalmente, por cables de fibra, para garantizar una alta velocidad de transmisión de datos, aunque también encontramos SAN cableadas con ISCSI si se quiere tener un precio menor. Por este motivo se puede decir que es un almacenamiento dedicado, porque no afecta la red por la cual están conectados los equipos.


Ahora que sabemos que es una NAS y una SAN podemos ver que son dos almacenamientos parecidos físicamente, porque los dos son cajas de discos, pero su conexión a la red y su uso son completamente diferentes.

En resumen, los dispositivos de almacenamiento NAS se usan para compartir archivos entre usuarios, mientras que las SAN se usan para presentarle volúmenes de almacenamiento a los servidores.


A continuación vemos una imagen que muestra pequeñas arquitecturas de cada uno de estos dispositivos de almacenamiento:




martes, 25 de febrero de 2014

Un data center para dominar el mundo


En la era tecnológica que estamos viviendo sabemos mucho de aplicaciones ya que podemos acceder a ellas mediante los ordenadores, las tabletas y los smartphones. Hasta los más pequeños navegan por la red como si la conocieran desde hace muchos años, pero lo que no se conoce es la infraestructura necesaria para que todo esto funcione. 

Con solo un click, únicamente tocando una pantalla tenemos una infinidad de posibilidades, pero ¿Alguna vez nos hemos preguntado donde se almacena la información y de que manera  nos llega?

Los centros de datos son los lugares donde las aplicaciones cobran vida y hace posible que la tecnología, que parece sacada de una película de ficción, llegue a nosotros de manera totalmente transparente. No es que esto sea un concepto nuevo, ya que desde que existe la computación existen los centros de datos, pero así como la tecnología que adquirimos está en constante cambio, los centros de datos también deben cambiar para lograr brindarle a los usuarios todo lo que exigen con respecto a sus dispositivos o aplicaciones empresariales.

Y hablando de usuarios, estos son cada vez más     exigentes cuando de velocidad, procesamiento y facilidad se trata. ¿Qué hacen ustedes si un sitio web se demora un minuto para cargar? ¿O si deben leer un manual para aprender a utilizar una aplicación? Para lograr que todo funcione según las expectativas del cliente se debe lograr una sinergia entre el desarrollo del software la infraestructura en la que se va a ejecutar, y por eso es tan importante que el desarrollador conozca de infraestructura y viceversa.

Por otro lado están las grandes empresas que viven en función de adquirir cada vez más usuarios y esto los lleva a tener centros de datos gigantes al rededor de todo el mundo con máquinas encendidas día y noche , procesando y moliendo datos, como un gran monstruo con el que quieren dominar el mundo, pero gracias a ellas es que actualmente gozamos de la facilidad de tener miles de aplicaciones en la palma de la mano.

Demonos un tour por el centro de datos de Google:



lunes, 24 de febrero de 2014

Arreglos de discos: RAID


Un arreglo de discos redundantes RAID (redundant array of independent disks) consiste en combinar varios discos físicos para formar una unidad lógica, en la cual se almacenan información de manera redundante. Es decir, que si en el arreglo falla un disco el servidor puede seguir funcionando con los discos restantes del arreglo. De esta manera se da una mayor tolerancia a fallos y en ocasiones mayor rendimiento de lectura y escritura.

Existen varios tipos de arreglos de discos y cada uno esta diseñado con unas condiciones específicas que le permiten tener tolerancia en mayor o menor cantidad de discos y mejor escritura o lectura.

Los RAID son soluciones costosas ya que mínimo se necesitan dos discos y para lograr el efecto esperado se debe hacer un sacrificio en capacidad, es decir, los discos no tendrán toda la capacidad de almacenamiento original.

Tipos de arreglos de discos más usados:

RAID 0: Utiliza de dos discos en adelante como uno solo y de esta manera obtiene un conjunto de cabezas independientes para su uso, por lo cual aumenta el desempeño de la lectura y la escritura dado que divide la información en bloques de datos los cuales escribe o lee con varias cabezas de manera simultanea. Se puede decir que este tipo de arreglo no pertenece a los arreglos redundantes ya que no tiene ningún nivel de protección, en caso de que falle uno de los discos de arreglo se perderá toda la información.



RAID 1: Es conocido como el arreglo espejo (mirroring) porque replica los datos entre sus discos creando copias idénticas de éstos, por lo que tiene un nivel de seguridad bastante alto. Se necesitan dos discos ya que la información del disco primario es copiada al disco secundario. En este arreglo se sacrifica la mitad del almacenamiento total de los discos, es decir, si hacemos RAID 1 con dos discos físicos de 100 GB vamos a obtener un volumen lógico de 100 GB. Admite la falla de uno de sus discos espejo.



RAID 5: Este tipo de arreglo se conoce como "distribuido con paridad". para formar este arreglo se debe contar mínimo con 3 discos y tiene un funcionamiento parecido al RAID 0 pero con la diferencia de que maneja un bit de paridad en cada uno de los discos con el cual se puede reconstruir la información en el caso de que falle uno de sus discos, pero si fallan dos se perderá la información. El sacrificio de capacidad de este tipo de arreglo es aproximadamente del 33% y se recomienda no armar arreglos con demasiados porque aumenta la probabilidad de falla de dos discos.



RAID 6: Se puede decir que el RAID 6 es una ampliación del RAID 5 ya que en vez de utilizar un único bloque de paridad utiliza dos, garantizando mayor tolerancia a fallos. En este tipo de arreglo se pierde la información en el caso de que se dañen 3 discos de manera simultanea. Por tener dos bits de paridad su escritura se hace más lenta. No se recomienda usar con pocos discos ya que pierde mucha capacidad, pero tampoco con demasiados ya que aumenta la probabilidad de falla de 3 discos.


RAID 0+1: Este tipo de arreglo es una mezcla entre RAID 0 y RAID 1. La información se distribuye en conjuntos de discos RAID 0 pero a su vez se hace un espejo entre estos conjuntos en un RAID 1. Su nivel de seguridad y desempeño es mayor que cualquier otro arreglo, pero también es más costoso, tanto en dinero como en capacidad.




¿Sabes qué es un servidor?


En informática un servidor es un ordenador o equipo de cómputo que hace parte de una red y se encuentra al servicio de otros ordenadores cliente para prestarles servicios.

Cuando nos hablan de servidores nos imaginamos un súper computador, pero no tiene que ser así necesariamente. Un servidor puede ser un PC común, pero como se menciono anteriormente, tiene la función de proporcionar servicios a estaciones clientes conectadas con él.

Concretamente los servidores sirven para almacenar información, ya sean archivos, sitios web, bases de datos, aplicaciones entre otros, que luego serán accedidos por ordenadores clientes.

Por lo general los servidores se encuentran ubicados en un centro de procesamiento de datos (CPD) en condiciones especiales de localización y temperatura.

Existen muchos tipos de servidores como web, almacenamiento, DNS, FTP, correo, bases de datos, proxy, que en conjunto hacen que toda la operación de infraestructura sea exitosa.

Principales tipos de servidor:
Almacenamiento: Su función se centra en almacenar archivos, ya sean de texto, imágenes, audio, vídeo, para poderlos compartir entre los clientes.

Correo: Realiza operaciones de enrutamiento, recepción. envío, para la aplicación o plataforma de correo electrónico.

web: Almacena los archivos que componen un sitio web como lo son documentos HTML, archivos de texto, imágenes, vídeos, para posteriormente distribuir este contenido a los clientes que lo soliciten.

Bases de datos: En este tipo de servidor se realiza el almacenamiento y la gestión a las bases de datos de uno o varios sistemas de información.

domingo, 23 de febrero de 2014

¿Qué es un data center?


Cuando nos hablan de datacenter, centro de datos, centro de computo, centro de procesamiento de datos o simplemente un CPD, nos están hablando  de lo mismo.

Un CPD o datacenter es un lugar físico en el cual, empresas medianas y grandes, tienen equipos de cómputo en los que aloja información que necesitan para su operación. En ellos podemos encontrar servidores, equipos de almacenamiento de datos, equipos de redes como switch, routers, PDUs, librerías de backup entre otros.



Un datacenter es un lugar que debe contar con mucha seguridad ya que en él se encuentran los datos de las empresas, que realmente es lo más importante que éstas tienen, y por ello su ubicación es muy importante. Por lo general no se encuentran en los pisos inferiores de las edificaciones, para evitar el daño de los equipos de cómputo por inundaciones. También se debe pensar en qué lugar de la edificación seria menos propenso a un incendio o un desastre. Además debe tener un control de acceso para evitar que ingresen personas que puedan vulnerar la información de la empresa.

En resumen los centros de datos son los lugares que permiten que las aplicaciones comerciales, públicas y empresariales funcionen, ya que en ellos es donde se encuentra almacenada la información de las aplicaciones, sitios web, datos de usuarios, etc.