Author

Professional who has participated in digital projects for different sectors in different parts of Europe: from the development of software for the optimisation of aeronautical structures to projects investigating neuronal interactions in the cerebral cortex, working in multicultural and multidisciplinary teams. Currently a member of Paradigma, dedicated to the technical definition of products in the telecommunications sector.

Writer in

Big Data in the Cloud

Amazon Web Services, Google Cloud Platform and Azure have become the main providers of Cloud technology today. Among the many different IaaS and PaaS solutions these providers offer, the components that offer specific solutions for the Big Data field stand out. In this post, we’ll analyse the Big Data-oriented tools offered by these three providers. We’ll also clarify the different components, such as storage, processing or intelligence solutions.

In this post, we’ll analyse the main Big Data-oriented tools offered by these three providers. We’ll also clarify the different components, such as storage, processing or intelligence solutions.

read more…

Big Data en las nubes

Amazon Web Services, Google Cloud Platform y Azure se han convertido en los principales proveedores de tecnología Cloud hoy en día. En el blog ya hicimos una comparativa entre alguna de estas plataformas. Analizamos sus características en cuanto a almacenamiento y procesamiento y vimos sus diferencias y similitudes más destacadas sobre bases de datos, redes, herramientas de desarrollo y gestión, analytics y machine learning, entre otras.

Dentro del amplio abanico de soluciones IaaS y PaaS que ofrecen estos proveedores destacan los componentes que ofrecen soluciones específicas para el área Big Data.

En este post haremos un análisis de las principales herramientas orientadas a Big Data que nos ofrecen estos tres proveedores. Clasificaremos los diferentes componentes como soluciones de almacenamiento, procesamiento o inteligencia.

read more…

KPIs de incidencias para un Kanban Board de Jira

En pocas ocasiones se percibe el esfuerzo que implica solucionar un problema en uno de nuestros sistemas. Sin embargo, cuando el fontanero llega a nuestra casa, toca la pieza adecuada y nuestra lavadora deja de hacer ese ruido infernal y estridente que nos hacía temer lo peor, nos parece que el trabajo merece el salario (aunque puede que después del susto y con más calma podamos tener alguna duda al respecto). Cuando se trata de arreglar una incidencia, la percepción no es la misma, principalmente porque el software es muy etéreo.

Esta era la percepción de nuestro cliente cuando nos pidió desarrollar un sistema donde pudieran ver el ritmo con que el equipo solucionaba las incidencias. Estas eran generadas en Jira por el centro de atención al cliente y decidimos usar el API que ofrece (de la que ya nos hizo un repaso Manuel Zaforas) para desarrollar un dashboard donde mostrar ciertas métricas que nos dieran datos con los que describir la situación real.

reloj-jira

read more…

Crónica PyData Madrid 2016

En los últimos años el volumen de información generado y almacenado por las empresas ha crecido de manera exponencial. Hasta el punto de que hasta el año 2003, la Humanidad ha generado una cantidad de datos equivalente a 5 Exabytes, una información que actualmente se genera cada dos días. Un crecimiento que se supera enormemente año tras año. Esta generación masiva de información ha desembocado en un inmenso mar de datos a los que, a priori, no se les estaba sacando ningún partido más allá de las propias aplicaciones que los generaron. Hoy en día Big Data está presente en todas partes y la cantidad de información obtenida de redes sociales, dispositivos móviles, aplicaciones de usuarios y sistemas transaccionales es enorme y su tratamiento y análisis es una obligación para las compañías, lo que ha dado lugar a una nueva disciplina: la ciencia de los datos o data science.

Alrededor de estas necesidades surge una serie de tecnologías, de la mano de técnicas estadísticas, de minería de datos, analítica avanzada, Big Data, machine learning y otras técnicas que se adaptan y evolucionan para afrontar problemas partiendo de grandes volúmenes de datos. Este tema está cobrando cada vez más relevancia y por eso surgen eventos como PyData, celebrado este año por primera vez en Madrid, que pretenden profundizar en la problemática del tratamiento y análisis de los datos.

pydata-1

read more…

Se edita ‘Django by Example’, de Antonio Melé

Me gustaría presentaros un libro muy interesante que abarca en gran profundidad las bondades de Django, el framework de desarrollo para Python más popular

El autor de la obra es nuestro compañero Antonio Melé, quien ha estado involucrado en la comunidad española del framework Django.es y ha participado en el desarrollo de multitud de proyectos web con dicho marco de desarrollo desde hace varios años. He sido testigo del esfuerzo y el cuidado que se ha puesto en su elaboración durante más de un año. Es un libro en el que se han cuidado los detalles y donde se ha buscando en todo momento el pragmatismo y la claridad en las ideas a transmitir. Aquí se imprime mucho conocimiento adquirido a través de una larga lista de proyectos.

libro django 390

read more…