Encuesta sobre tecnología Linkedin

Desde OLATIC estamos trabajando para conocer mejor a nuestros potenciales clientes y sus hábitos para ofrecer un servicio más profesional y adaptado a sus necesidades. Es por eso qué nos gustaría haceros de manera anónima una serie de preguntas para entender desde dentro las motivaciones que demandan la actividad de un proveedor informático.

Queremos recordaros que esta encuesta es completamente anónima y que no conoceremos ni quien la responde ni el mail desde el que se envía. Tampoco es necesario escribir vuestro nombre. Muchísimas gracias de parte de nuestro equipo.

 

REALIZAR ENCUESTA

 

olatic

OLATIC consigue 2 nuevas competencias Microsoft, contando ya con 4 en total.

OLATIC consigue 2 nuevas competencias de nivel Silver:

  • Silver Midmarket Solution Provider
  • Silver Small and Midmarket Cloud Solutions

En total contamos con 4 competencias que avalan la capacidad y los conocimientos de nuestro equipo de especialistas en soluciones de Microsoft para ofrecer a nuestros clientes las máximas garantías, certificando la apuesta por el conocimiento y la innovación como nuestro principal valor diferencial.

La consecución de estas competencias nos posiciona al más alto nivel de capacitación de entre todos los partners de Microsoft en la zona norte y nos certifica con el conocimiento y experiencia contrastada por Microsoft para realizar con éxito proyectos en cualquiera de los 3 ámbitos de actuación de la empresa: Soluciones en la nube con Azure y Office 365 , Intranets de colaboración mediante SharePoint y Desarrollo de software a medida.

Agradecemos a todos nuestros clientes la confianza depositada en nosotros para el desarrollo y puesta en marcha de sus proyectos.

¿Cómo evaluar productos de Software? [Parte 1: Planificación]

El mercado actual de soluciones y productos de Software que pueden cubrir nuestras necesidades es grandísimo. A veces por economía solemos simplificar las decisiones de selección de productos y soluciones: tendencias (mi competencia lo tiene), es una novedad e incluso a veces porque es «gratis».

Los que ya estamos escarmentados -sí, me incluyo- de basarnos en presunciones, falsas promesas de proveedores/fabricantes o de dejarnos llevar, empezamos por una evaluación o «proyecto piloto».

Algo de lo que no nos solemos dar cuenta es que, evaluando un producto, ya hemos empezado un proyecto o «el proyecto». Date cuenta, estamos involucrando personas, plazos, necesidades… ¿Vamos a dejarlo a «como salga»?

Hace tiempo preparé un «marco general» para dirigir este tipo de evaluaciones, tanto para nosotros –Olatic– como para nuestros clientes, y ahora me gustaría compartirlo por si os puedo aportar algo. Este «marco general» para las evaluaciones de un producto de software se divide en tres fases:

  • Planificación
  • Evaluación
  • Conclusión

En este artículo os voy a contar el primer punto, y dejaré los otros dos puntos para mis siguientes artículos.

Planificación

En esta fase intento obtener toda la información que voy a necesitar para evaluar y realizar las conclusiones con unas mínimas garantías y tener margen para ajustes. Además, me sirve para mostrar a los demás de donde partimos, hacia donde vamos y donde estamos. Empecemos con los puntos:

  • Objetivos. Parece obvio pero a veces en las pruebas no están claros o consensuados, otras veces no están alineados con el negocio…
  • Audiencia. Lo más seguro es que el producto que estamos probando lo van a usar otras personas dentro nuestra organización. ¿Sabemos que personas son las candidatas? ¿Podemos contar con ellas? En este punto suelo buscar dos tipos de perfiles de usuarios basándome en 80/20, usuarios con un alto impacto (usuarios que van a utilizar la aplicación en un 80% de su jornada o en su mayor parte) y usuarios con impacto bajo (usuarios que usen poco la aplicación en su jornada o esporádicamente). Algo que debemos manejar cuando pensemos en las personas candidatas es como hacer que las tareas que les encomendemos no «interrumpan» la operativa del negocio y por otro lado -para mi muy importante- es buscar personas que estén motivadas para estas tareas. Cuantas veces habré oído lo de «no tengo tiempo para probar esta chorrada…»
  • Plazo. Suele haberlo porque a veces viene impuesto de «arriba», otras veces no y debemos establecerlo. Dentro de este plazo podemos pensar en fases para la evaluación: por tipo de usuario, por departamento, por ubicación…
  • Sensibilización y formación. Para mi este punto es muy importante. Necesitamos que los usuarios involucrados entiendan el porqué de estas pruebas, que motivación de negocio hay detrás. Es decir quiero que se impliquen en algo que entiendan y en el que además puedan aportar valor. Quiero que me digan cómo funciona la aplicación en el día a día del negocio y en que puede ayudarnos, no en si este botón funciona o no funciona. Por otro lado, necesitamos de una mínima formación inicial. Los usuarios no pueden aterrizar en la evaluación del producto sin saber cómo pueden hacer las cosas. El no hacerlo es garantía de problemas del tipo: es complicadísimo o directamente es una m.. Si el periodo de evaluación es largo también se puede diseñar un calendario de formación gradual según vaya avanzando la evaluación. Busquemos que formas tenemos para sensibilizar y formar a nuestra audiencia.
  • Seguimiento. Debemos pensar y habilitar canales y espacios que nos permitan hacer el seguimiento de la evaluación con los usuarios y que éstos puedan reportarnos incidencias y sugerencias. Debemos establecer una periodicidad en caso de formalizar reuniones , entrega de informes, encuestas…
  • Limitaciones. A veces la evaluación que se realiza del producto tiene limitaciones en su funcionalidad. Debemos conocerlas para saber cómo de exacta va a ser nuestra evaluación. Otro punto a tener en cuenta es la continuidad. ¿Y si termino la evaluación y el producto no satisface las necesidades? Si no lo hemos tenido en cuenta, lo más normal es que perdamos el trabajo. Puede que el producto que estemos evaluando nos permita sacar una copia de seguridad de nuestro trabajo, pero si hemos decidido que éste no es nuestro producto ¿podemos restaurar esta copia en otro producto?. Personalmente lo que suelo definir es que tipo de datos se van a utilizar en la evaluación y dependiendo del tipo de producto que estemos evaluando duplicarlos (como se venía haciendo hasta ahora y en el producto en evaluación.) ¿Os acordáis que he comentado que necesitamos personas motivadas?
  • Justificación. Siempre intento aclarar este punto que en si se trata en cómo hemos decidido que vamos a evaluar este producto. Por ejemplo porque ya tenemos más productos del mismo fabricante y puede que la integración sea mejor, porque tenemos un proveedor que nos da soporte o nos lo ha recomendado, porque la tecnología que usa está alineada con la que tenemos en nuestro negocio, porque es un producto extendido y la curva de aprendizaje puede ser baja… Lo que quieras, pero déjalo por escrito para recordártelo cuando te hagas más adelante la pregunta de por qué éste y no otro.
  • Soporte a IT. En este punto definiremos como vamos a actuar cuando tengamos situaciones en las que nuestro departamento de IT (o personas encargadas de la evaluación a nivel técnico) no sea capaz de resolver.

 

Como he comentado, podemos jugar con estos puntos quitando, poniendo, dando más o menos detalle… Como ves esta fase puede requerir de días e incluso de semanas pero vas eliminando riesgos y si la cosa no pinta bien mejor perder unos días de tu tiempo que semanas del de muchos.

El siguiente artículo será como planteamos la fase de evaluación pero hasta entonces… ¿Qué puntos añadirías a esta fase? ¿Qué detalle importante también trabajarías en alguno de estos puntos?

Seguridad en las empresas

Compartimos con todos vosotros la presentación de la charla que realizamos el 20 de Mayo en el marco de las jornadas informativas de Inguralde.

Contenido:

– Que es un malware y vías de infección

– Medidas de prevención

– Que hacer una vez hemos sido infectados

– Recuperar datos perdidos