¿Podemos manejar archivos con doble espacio, ñ y/o caracteres especiales?

La buena noticia es que sí!, es posible, y no representa un gran problema si hablamos únicamente de Sharepoint, la documentación no detalla nada que hiciera sospechar que pueda ser un inconveniente. Sin embargo, les presento un incidente que se nos presentó en un cliente en el cual este punto fue justamente el centro del problema.

Posterior a la migración desde Sharepoint 2010 a 2013, toda la instalación y migración fue hecha siguiendo las mejores prácticas y sin problemas significativos. El proyecto fue considerado un éxito.

Sin embargo, en la etapa de QA, poco tiempo antes de la puesta en producción y finalizando las últimas pruebas, se hizo presente un problema que afectaba a los usuarios de forma aleatoria. En la librería documental, los archivos con símbolos especiales, ñ o dobles espacios generaban el siguiente error:

  1

Después de un poco de troubleshooting llegamos a la conclusión de que el problema no se presentaba de manera aleatoria, el problema se presenta únicamente cuando los archivos son accedidos desde afuera de la red corporativa.

Dado lo anterior, el primer elemento a examinar, fue el dispositivo encargado de la publicación hacia la red externa, en este caso un Microsoft TMG. Después de la revisión se determinó que efectivamente el filtrado HTTP estaba bloqueando el acceso a URL con ciertas características.

Solución

Para dar solución a nuestro problema accedimos a las propiedades de las directivas de Firewall, después a la ficha de tráfico e hicimos click en Filtering > Configurar HTTP.

2

En la configuración HTTP deshabilitamos la opción “Block high bit characters”. Al aplicar este cambio inmediatamente se permitió acceso a los archivos que anteriormente presentaban problemas.

3

Los filtros aplicados por el TMG en los protocolos HTTP por defecto deniegan el acceso a archivos con caracteres especiales. Si bien este tipo de bloqueos es recomendable (por lo mismo es la configuración por defecto) en ciertas situaciones es necesario reconfigurar para cumplir las necesidades del negocio.

Es importante que la información presentada no es la solución definitiva para los problemas de publicación, sin embargo, recomendamos que los dispositivos utilizados para la publicación de herramientas complejas como Sharepoint sean considerados frente a posibles problemas en el funcionamiento.

Nicolás Herrera, Consultor Infraestructura, Blue Solutions.

La cadena de valor en una Economía Digital

CADENA DE VALOR, la primera definición que arrojo Google fue: “Es una herramienta estratégica usada para analizar las actividades de una empresa y así identificar sus fuentes de ventaja competitiva”. Michael Porter experto en estrategia empresarial y creador de Competitive Advantage: Creating and Sustaining Superior Performance, explora la ventaja competitiva mediante aprovechar cada eslabón de la cadena para crear valor y desarrollar este mediante el análisis estratégico de los productos y/o servicios.

Si queremos transformar nuestra economía hacia una más sostenible, estable y equitativa, es necesario rearmar las cadenas de valor en todos los sectores, es decir, un cambio profundo, experimentar la metamorfosis con un simple método científico -observación, hipótesis, tesis-  aprovechando cualquier eslabón donde podamos optimizar el costo con más valor económico, poniendo a los consumidores en primer lugar con atributos y características de los servicios y/o productos que sean percibidas por los clientes al mismo tiempo que son valoradas, sin descuidar la responsabilidad social y ambiental en donde la concientización empresarial es primordial para la sustentabilidad.

“Servir las necesidades actuales,

sin comprometer la capacidad de las futuras generaciones

de hacerlo en su momento” Sustentabilidad.

Primer Ministro de Noruega 1987.

Lo anterior se comprende mejor entendiendo las relaciones entre megatendencias: sustenibilidad, cadenas de valor cada vez más extensas y globales y la promesa del poder transformador de las tecnologías exponenciales, donde el prestigio y calidad sean parte de una estrategia de diferenciación. El desarrollo estratégico de cualquier compañía en los próximos 5 a 10 años se desplazará por estos caminos.

La Economía Digital representa un cambio y un desafío para todas las industrias, donde las aplicaciones digitales son la principal atracción, este es el caso de Uber, Airbnb, o Amazon, que transformaron –respectivamente- el sector de transporte privado y pronto la logística dentro de las ciudades, la renta de espacios y el sector retail, sin mencionar todo lo relacionado con IA; en Chile tenemos el caso de Corner Shop y Listoco, entre otros productos digitales que se encuentran en pañales.

En la economía digital y en especial los mercados emergentes encontramos la oportunidad de generar crecimiento y acercar a los que no están incluidos en el mercado, mejorando la productividad de cadenas de valor completas y gestión de los riesgos y las relaciones con todos los grupos de interés, es aquí donde la tecnología tiene un papel principal en la creación de nuevos servicios y/o productos con costos bajísimos en la hasta la transacción final -input a output- teniendo en cuenta el aumento de datos global, ampliando el universo de consumidores con una hipercompetencia en todas las industrias, teniendo la oportunidad de aumentar el valor y crear beneficios a largo plazo.

Value Chain

A pesar de la vertiginosa velocidad de los cambios, toda empresa necesita una estrategia digital y un modelo de negocio. De forma resumida podría decirse que, tanto en la economía digital, como en la tradicional, existen básicamente dos modelos o la combinación de ambos: el pago, en el que el usuario paga para un servicio o producto o el modelo “free” en donde un tercero a través de la publicidad lo paga por él. Los sectores más tradicionales que han negado el impacto de lo digital se encuentran ahora con el reto de diseñar modelos de negocios sostenibles para vender servicios y productos a consumidores con estándares altos y cada vez están menos acostumbrados a pagar debido a las existencias de servicios freemium (el usuario no paga el servicio básico, pero sí la versión sin publicidad o versiones más sofisticadas) como por ejemplo Skype o Spotify, Si hablamos de servicios con un “fee” mensual, se nos vienen varios a la mente, desde soluciones digitales para el hogar y la oficina, el colegio y la universidad, con miles de productos y servicios diferentes.

Lo importante está más allá del precio, es el valor que generamos y desarrollamos y, por sobre todo, las aplicaciones, productos o servicios digitales tienen una proyección inmensurable mejorando la cadena de valor si tenemos una visión analítica de nuestros clientes, el mundo.

 Esteban Miranda, Gerente de Servicios, Blue Solutions.

Revolución de los Datos – 4ta Revolución Industrial.

Hora de Imaginar y Crear.

Estudios prevén que para 2020, una persona generará 1,7 megabytes de información por segundo, es más, diariamente en el mundo son generados 2,5 exabytes de información, el equivalente a 16 billones de CD (por día).

Bernard Marr (Best-Selling Author, Keynote Speaker and Leading Business and Data Expert) hace entrever la cantidad de datos disponible en 4 años, aumentando a 44 zettabytes (4,4 zettabytes tamaño actual).

El 90% de la información en el orbe ha sido generada en los últimos 2 años y se estima que la misma cifra crecerá en un lapso de 6 meses o menos. Diario Financiero – Dic 2015.

¿Qué haremos con tanta información?

LinkedIn, Facebook, Waze, Uber, Tripadvisor, Trivago, por nombrar algunas, montan su estrategia de negocio mediante inductores de valor con exigencias, compromiso, calidad, eficiencia, ahorro, feedback y dinamismo requerido para ser parte de la 4ta Revolución Industrial; Sumándose al ya creciente éxodo de emprendedores y startup que han utilizado datos recopilados y almacenados, creando maravillosos productos con capacidades de análisis y procesamiento de información, más inteligencia artificial que añadido a la potencia y suficiencia de aprendizaje en modelos de redes neuronales que hoy poseen la mayoría de las aplicaciones antes mencionadas, cubren las necesidad de los consumidores, adaptándose a tiempos contemporáneos, en la cual la competencia de proveedores de servicios es cada vez reñida dado la variedad de herramientas disponibles y, requiere de constante conocimiento y comprensión de las necesidades de nuestros clientes.

Otros no se han quedado abajo y también han pivoteado, centrando sus esfuerzos en productos generadores de valor (visto en el párrafo anterior) donde el pilar primordial es el consumidor, mejor dicho, el poder de los consumidores. Es por eso que entidades privadas como ATP, NFL, NBA, General Electric, Coca-Cola, American Express, Laboratorios, Retail, entre otros, han salido del sesgo estratego comercial donde la premisa era, “los clientes se adaptan a las marcas y sus productos” y ya vemos el resultado de empresas como, Blockbuster, Kodak, Polaroid, Alta Vista y para que decir lo que hizo Uber poniendo en jaque al gremio de taxistas, entre muchas otras fueron aplanadas por ideas disruptivas y 100% pensadas en el consumidor, con una oferta de valor diferente a compañías conservadores, con soberbia, temerosas al cambio y pensando en resultados a corto plazo con un objetivo en mente, cuidar el beneficio económico. En simple palabras, hacer más de lo mismo. La revolución de la información llego para quedarse y, “es como una escalera mecánica, las empresas no pueden darse el lujo de quedarse parados y ver como esta avanza”.

http://www.bbc.com/mundo/noticias/2014/09/140908_reto_innovacion_empresas_hr

http://blogs.gestion.pe/consumerpsyco/2015/02/bienvenido-el-fracaso-al-carajo-con-el-exito-el-fracaso-como-componente-inherente-de-la-innovacion.html

imagen-1-01

La revolución de la información dejará un coletazo inmensurable a: procesos, labores, burocracia, normas, puestos y áreas de trabajo, políticas de gobierno, modelos de negocios, y por sobre todo empresas y personas con una visión doble o diplopía. Bien sabemos quienes nos desembolsemos en la industria tecnológica respecto al movimiento constante que sufre y las secuelas que deja tan magno avance INNOVADOR. Veremos desaparecer compañías y puestos de trabajo, por la miopía tanto de inversores como de su plana ejecutiva ante el temor de ser diferentes, optando por caminar en la zona de confort con una retribución al corto plazo por hacer más de lo mismo ¿y luego qué?

Big Data se encuentra en pañales y existe mucho por crear y desarrollar, la nueva era trae consigo un montón de cambios y, millones de beneficios como nuevos puestos de trabajo. Hace poco el diario el mundo analizó un estudio recogido por el observatorio para el empleo en la Era Digital y destaco 10 profesiones que serán solicitadas: ingeniero smart factory, chief digital officer, experto en innovación digital, data scientist, experto en big data, arquitecto experto en smart cities, experto en usabilidad, director de contenidos digitales, experto y gestor de riesgos digitales y director de marketing digital.

Pieza 2-01.png

Los alcances de Big Data van desde App Móviles de consumo hasta aplicaciones o soluciones de GRAN IMPACTO para sectores como; Salud, Minería, Industria Automotriz, Banca y muchos más. Para que mencionar la inversión económica que requieren estas entidades para desarrollar este tipo de iniciativas y los especialistas que se necesitan HOY. Existe una infinidad de nuevos negocios donde podemos a partir de la necesidad de los consumidores, desarrollar grandes ideas pensadas en nuestros clientes, quienes tienen el poder de escoger que bien o servicio utilizar en un mundo globalizado por los DATOS.

Para finalizar, Andrés Meirovich (Director – Génesis Partners) menciona 3 puntos importantes a la hora de innovar.El foco de Big Data se centra en la ganancia de 1) Eficiencia sobre la información, 2)Costos y 3) Calidad del producto o servicio. Es importante mirar al horizonte y desglosar detalladamente el cómo aprovechar la VARIEDAD de información, los grandes VOLUMENES de datos, el procesamiento y entrega de información que en una simple palabra es VELOCIDAD y la VERACIDAD de la información en función de la calidad de estos para disponibilidad y uso predictivo y bajo estas 4 variables crear a largo plazo herramientas que satisfagan las necesidades de cada industria y obviamente la nuestra como consumidores.

¿Qué haremos para desarrollarnos? ¿Por qué mirar la punta del Iceberg? ¿Qué valor entregaremos en un futuro a nuestros clientes? ¿Por qué hacer más de lo mismo?

En nuestras manos tenemos la respuesta, Imaginar!

 Esteban Miranda, Gerente de Servicios, Blue Solutions.

Office 365 | Planificación de ancho de banda de internet

Hay muchos factores que intervienen en la migración hacia Office 365. Cada organización tiene experiencia y su diferencia se basa en la configuración de su correo actual. El entorno de Exchange existente tiene que estar en algún estándar o cumplir con algunos criterios antes de empezar a moverse a Office 365.  A continuación, se detallan algunos pasos previos antes de realizar cualquier tipo de implementación de Office 365.

Estimando uso de ancho de banda

Hay varias variables que debemos considerar cuando estimamos el tráfico de la red. Algunas de éstas son:

  • Ofertas de Servicio que la organización está suscrito al Servicio de Office 365.
  • Cantidad de estaciones de trabajo conectadas al mismo tiempo.
  • El tipo de tarea de cada equipo cliente se está
  • El rendimiento del software del navegador de Internet.
  • La capacidad de las conexiones de red y segmentos de red asociados a cada equipo cliente.
  • Topología de red de la organización y la capacidad de los distintos elementos de hardware de red.

Calculadoras de ancho de banda que debe utilizar para Office 365

Hay calculadoras disponibles que ayudan con la estimación de los requerimientos de ancho de banda de la red. Estas calculadoras trabajan en las instalaciones, así como despliegues de Office 365. Se puede utilizar la calculadora de ancho de banda de red de cliente de Exchange para estimar el ancho de banda requerido para un conjunto específico de Outlook, Outlook Web App, y los usuarios de dispositivos móviles para la implementación de Office 365. Con la calculadora de 2010 y 2013 de ancho de banda de Skype for Business Server, se introduce la información sobre los usuarios y el Skype for Business Online las prestaciones que desea implementar, dicha calculadora le ayuda a determinar los requisitos de ancho de banda.

  • Exchange Client Network Bandwidth Calculator
  • Lync 2010 and 2013 Bandwidth Calculator
  • OneDrive for Business Synchronization Calculator

Prueba de velocidad de migración

Las pruebas y la validación del ancho de banda de Internet (descarga, carga, y las limitaciones de latencia) son vitales para la comprensión de cómo lograr la migración de alta velocidad de contenido de buzones de correos locales a Office 365 y ambientes de Exchange Online. La conectividad lenta o latente, reduce el número de migraciones de buzones que se pueden realizar durante una ventana de la migración. Asegúrese de realizar los siguientes pasos:

  • Prueba y confirmación que el ancho de banda de Internet de la organización puede gestionar el impacto de red         en migraciones de Office 365
  • Evaluar la disponibilidad de ancho de banda de red interna para eventos de migración de Office 365.
  • Hacer uso de herramientas de red disponibles, tales como:

– Microsoft Network Monitor – Permite capturar el tráfico de red, verlo y analizarlo. Buscar HTTPS/ SSL, tiempos de espera ajustados, muy bajo en Proxy / Firewall / Router y transmisiones excesivas.

– Microsoft Remote Connectivity Analyzer – Chequea la conectividad del ambiente de Exchange Online.

– Office 365 Network Analysis Tool – Ayuda a analizar los problemas relacionados con la red antes de la implementación de servicios de Office 365: Norteamérica: http://na1-fasttrack.cloudapp.net / EMEA: http://em1-fasttrack.cloudapp.net / APAC: http://ap1-fasttrack.cloudapp.net

– Determinar su carga, descarga y latencia entre su control local y el centro de datos de servicios cloud Microsoft más cercano. Las siguientes actividades pueden ayudar en esta tarea: Ping a outlook.com para determinar la dirección IP del centro más cercano a Microsoft datos de los servicios en la nube desde su ubicación. / Consulte a un sitio web de mapas IP de terceros (por ejemplo, iplocation.net) para determinar la ubicación de ese centro de datos. / Use un sitio web prueba de velocidad (por ejemplo speedtest.net) para determinar la carga, descarga y las estadísticas de la latencia entre su entorno local y la ubicación más cercana al centro de datos de servicios cloud Microsoft. / Determinar los períodos en los que el sistema local de Exchange se utiliza en gran medida (por ejemplo, durante las copias de seguridad).

Estrategias para mejorar la velocidad de migración

Para mejorar la velocidad de migración, así como reducir las limitaciones de ancho de banda de su organización, se debe considerar lo siguiente:

  • Reducir el tamaño de los buzones. Mientras más pequeño sea el tamaño del buzón, aumenta la mejora de la               velocidad de migración.
  • Limpieza de carpetas públicas – asegúrese de la limpieza de su público para cumplir con el buzón de                          carpetas públicas en Office 365.
  • Utilice la capacidad de movimiento de buzones con una implementación híbrida de Exchange. Con una                      implementación híbrida de Exchange, el correo sin conexión (.ost) no requiere volver a descargar al migrar a              Exchange Online. Esto reduce significativamente los requisitos de ancho de banda de descarga.
  • Horario del buzón, se mueve al ocurrir períodos de tráfico de Internet y una baja utilización de Exchange                    local. Al programar movimientos, entender que las solicitudes de migración son enviadas al proxy de                          replicación de buzón y pueden no tener lugar inmediatamente.

Para más detalles respecto a la migración, revisar el siguiente link http://go.microsoft.com/fwlink/?LinkId=393510

Luis Arancibia, Consultor Cloud, Blue Solutions. 

 

Big Data y la inteligencia de negocio es lo que está generando valor a la empresa

Big Data es el término que se emplea hoy en día para describir el conjunto de procesos, tecnologías y modelos de negocio que están basados en datos y en capturar el valor que los propios datos encierran. Esto se puede lograr a través de una mejora en la eficiencia gracias al análisis de los datos (una visión más tradicional), y además, mediante la aparición de nuevos modelos de negocio que supongan un motor de crecimiento.

Esta tecnología ha tenido un impacto considerable a nivel mundial, aumentando su interés de forma explosiva en los últimos años. El siguiente gráfico muestra el interés de búsqueda en Google que ha tenido el término “Big Data”.

1

Al mismo, tiempo podemos ver la cobertura a nivel mundial que ha alcanzado esta solución, en países como India, Singapur, Hong Kong, Coreo del sur y Taiwan, éstos son los mas interesados sobre esta nueva metodología de obtención, análisis y gestión de datos, es que Big Data más allá de ser una “potente base de datos” es una herramienta que fortalece el núcleo de cualquier negocio generando valor y entregando información real respecto a cuáles son mis productos con mayor preferencia en el mercado, o proyecciones en área de ventas en base al análisis del comportamiento en sus clientes.

2

Es importante entender que, Big Data ya no es una promesa ni una tendencia. Big Data está aquí y está provocando cambios profundos en diversas industrias. Desde el punto de vista tecnológico ya existen sectores empresariales que han adoptado de forma masiva proyectos y productos. El análisis de todos los datos e información en grandes volúmenes, de diversas fuentes, a gran velocidad y con una flexibilidad sin precedentes, puede suponer un factor diferencial para aquellos que decidan adoptarlo.

Ha sido tan disruptiva esta nueva metodología para la obtención y análisis de datos, que desde el año 2012 se han generado modelos de negocio que utilizan la información como base para generar sus estrategias ya sea, competitivas de relacionamiento y marketing.

Dentro de los procesos para el análisis y obtención de información, se destaca el Marketing impulsado por los clientes, mostrando y ofreciendo promociones personalizadas basándose en las pautas de compras individuales, al mismo tiempo, se aplica un análisis de marketing para la optimización de precios, evaluando la sensibilidad de la demanda a los precios mejorando el ciclo de vida del producto.

Ya está claro que las empresas están cambiando su forma de pensar con respecto al uso, recolección y análisis de datos. Se están aplicando procesos de conversión para crear datos estructurados a partir tweets y mensajes en las redes sociales, transformándolos en información pertinente a las áreas de negocio y otorgándole protagonismo en la toma de decisiones.

3

Poco a poco, las empresas se están familiarizando con los datos de gran volumen, sin embargo, pocos están tomando ventaja de las oportunidades que se generan. Una de las principales razones para esto, es el hecho de que la mayoría de las organizaciones no tienen mucha experiencia en el análisis de datos para ayudar en la toma de decisiones estratégicas. Por otra parte, las empresas tienden a invertir en proyectos de grandes volúmenes de datos diseñadas para resolver un problema de negocio específico, pero no incorporan el análisis de datos como parte de una estrategia más amplia y generalizada internamente.

Como consejo a los proveedores de TI, se les recomienda centrar en el estudio de casos que demuestran claramente los beneficios de grandes volúmenes de datos y análisis a sus potenciales clientes. Las empresas deben ser conscientes de que los grandes datos y análisis serán útiles para identificar quiénes son sus clientes y cuáles son sus hábitos de compra, lo que permite segmentar de acuerdo con sus perfiles y establecer las mejores formas de interactuar con ellos, con el objetivo de mejorar la personalización de las ofertas de acuerdo sus preferencias.

En conclusión, el análisis de datos y el procesamiento de dato no estructurado está permitiendo tener mayor cercanía con nuestros clientes, permitiendo entender mejor sus gustos y necesidades. Es un hecho que la correcta obtención y el debido análisis de datos generará un valor único a las empresas que les permitirá desarrollar estrategias dinámicas y evolutivas. Es importante entender que Big Data no sólo debe mirarse desde su envergadura tecnológica, la cual no deja de ser impresionante, sino que en realidad se debe explotar por el área administración en las empresas para definir planes de acción y estrategias frente al mercado, clientes y competidores.

Nicolás Herrera, Consultor Infraestructura, Blue Solutions.

Microsoft Advance Threat Analytics

Microsoft Advance Threat Analytics (ATA) es una herramienta enfocada a la seguridad de la plataforma de Active Directory para detectar en tiempo real amenazas, y acciones sospechosas sobre el dominio.

¿Qué es ATA?

Microsoft ATA es una plataforma de seguridad para Active Directory con el fin de detectar amenazas. ATA toma información de los eventos y registros de la red con el fin de aprender comportamiento de los usuarios u otras entidades creando un perfil de comportamiento.

ATA aprovecha un motor de análisis sobre la red para capturar y analizar el tráfico de red de diversos protocolos (Kerberos, DNS, NTLM entre otros), ATA obtiene información de las siguientes maneras:

  • Creación de reflejos de puertos en los DC y servidores de DNS directos hacia la puerta de enlace de ATA.
  • Implementación de ATA Light Gateway (LGW) en los DC.

ATA nos permite detectar actividades sospechosas centrándose en:

  • Reconocimiento
  • Desplazamiento lateral
  • Dominio del dominio (persistencia)

Ademas de actividades sospechosas, ATA permite detectar ataques malintencionados como cuales:

  • Pass-the-Ticket (PtT)
  • Pass-the-Hash (PtH)
  • Overpass-the-Hash
  • PAC falsificado (MS14-068)
  • Golden ticket
  • Replicaciones malintencionadas
  • Reconocimiento
  • Fuerza bruta
  • Ejecución remota

Arquitectura de ATA

ATA analiza el tráfico de red de los controladores de dominio mediante el uso de la creación de reflejo de puerto a una puerta de enlace de ATA con conmutadores físicos o virtuales, o implementando la puerta de enlace ligera de ATA directamente en los controladores de dominio. ATA puede sacar provecho de los eventos de Windows (reenviados directamente desde los controladores de dominio o desde un servidor SIEM) y analizar los datos en busca de amenazas y ataques.

1

Arquitectura de ATA

El siguiente diagrama muestra el flujo de red, captura de eventos y explorar en profundidad para la funcionalidad de los componentes de ATA.

2

Componentes de ATA

  • El ATA Center recibe datos de cualquier puerta de enlace de ATA o puerta de enlace ligera de ATA que implemente.
  • El ATA Gateway se instala en un servidor dedicado que supervisa el tráfico de los controladores de dominio mediante la creación de reflejo del puerto o un TAP de red.
  • La ATA Light Gateway se instala directamente en los controladores de dominio y supervisa el tráfico directamente, sin necesidad de un servidor dedicado ni de una configuración de creación de reflejo del puerto. Es una alternativa a la puerta de enlace de ATA.

ATA Center

El ATA Center cumple la función de administras la configuración de los Gateway de ATA, recibir datos desde los ATA Gateway, detectar actividades sospechosas, ejecutar algoritmos de aprendizajes de comportamiento. El ATA Center recibe el tráfico analizado por el ATA Gateway y la ATA Light Gateway, genera perfiles, lleva a cabo una detección determinista y ejecuta el aprendizaje automático.

ATA Gateway y ATA Light Gateway

El ATA Gateway cumple la función de captura y análisis del tráfico de red en los controladores de dominio, recibir eventos de servidores de Syslog o SIEM, recuperar datos sobre usuarios y dispositivos del dominio, realizar tareas de resolución de objetos y transferir los análisis hacia el ATA Center.

ATA es una herramienta la cual llegó para dar fin a la problemática de seguridad especial para Active Directory, considerando la importancia de esta solución (AD) y que es esencial para el resto de las soluciones Microsoft mantener un control sobre AD era una tarea difícil, con la implementación de ATA en su plataforma, podrá mantener control sobre cualquier tipo de ataque, actividades sospechosas e incluso comunicación entre servidores y AD.

Ernesto León, Consultor Infraestructura, Blue Solutions.

 

Content Index aparece como UNKNOWN en Exchange 2013

Uno de los problemas de indexación normalmente en la plataforma de Exchange, es el alto consumo de RAM en el servicio de Noderunner.exe, ya que la distribución de las bases de datos entre los servidores es esencial en una plataforma como esta. Para esto es necesario remediar un problema con la indexación de las bases de datos, las cuales no permiten la activación de la copia pasiva en ninguna de las bases de datos disponibles.

Las tareas a ejecutar para la remediación son las siguientes:

  • Realizar la reparación del content index state mediante las siguientes actividades
    • Eliminación de CI y reinicio de servicios
    • Reseteo de CI mediante el script de reparación de Exchange
    • Regeneración del módulo Microsft search

Solución

En el path: E:\Program Files\Microsoft\Exchange Server\V15\Bin\Search\Ceres\Runtime\1.0

Buscamos el memoryLimitMegabytes en el archivo noderunner.config. Está establecido en 250.

————-

  <nodeRunnerSettings memoryLimitMegabytes=”250″/>

————- 

Luego lo cambiamos a 0 y reiniciamos el servicio Search Host Controller Service

El reinicio del Search Host Controller Service comenzará a realizar la reconstrucción de todos los índices por base de dato, por ende el tiempo en demorar la construcción depende mucho del tamaño por bases de datos (un par de horas).

Luis Arancibia, Consultor Cloud, Blue Solutions. 

 

Cómo cambiar la cuenta de servicio de caché distribuida en SharePoint 2013

La primera vez que instalar y configurar una granja de SharePoint 2013, caché distribuida de la granja se ejecuta inicialmente bajo la cuenta de servicio de administrador de la granja. Se establece en esta cuenta de servicio de forma automática. Esta situación finalmente dará lugar a un error de definición de la regla.

Título La cuenta de la granja de servidores no debe utilizarse para otros servicios
Gravedad 1 – Error
Categoría Seguridad
Explicación [Farmserviceaccount], la cuenta utilizada para el servicio de temporizador de SharePoint y el sitio de administración central, es altamente privilegiado y no debe utilizarse para cualquier otro servicio en cualquier máquina en la granja de servidores. Se encontraron los siguientes servicios para utilizar esta cuenta: Distributed caché del servicio (servicio de Windows)
Remediación Vaya a [su Servidor CA] / _ admin / FarmCredentialManagement.aspxand cambiar la cuenta utilizada para los servicios enumerados en la explicación. Para obtener más información acerca de esta regla, consulte “http://go.microsoft.com/fwlink/?LinkID=142685&#8221;.
Failing Servers  
Failing Services SPTimerService (SPTimerV4)
Rule Settings View

El recurso presentado por este error de definición de regla funciona para la mayoría de las cuentas de servicio, pero no para el servicio de caché distribuida. De hecho, si se desplaza a CA> Seguridad> Configuración de cuentas de servicio, y luego tratar de cambiar la cuenta de servicio para el servicio de Windows – caché distribuida, experimentará el siguiente error.

1

La única manera de cambiar esto en la actualidad, es el uso de PowerShell. Estos pasos se muestran a continuación

Procedimiento

  1. Identificar una cuenta de AD que desea utilizar para la cuenta de servicio de caché distribuida.
  2. Registre esta cuenta en la granja como una cuenta administrada.
  3. Acceder a un servidor de la comunidad utilizando su cuenta de administrador. No es necesario utilizar la cuenta de administración de la finca, sólo la suya.
  4. Abra un shell de administración de la explotación como administrador (clic derecho, seleccione Ejecutar como administrador).
  5. Ejecutar cada una de las declaraciones siguientes, en orden:

    $ Granja = Get-SPFarm
$ = $ CacheService Farm.Services | Donde {$ _. Nombre -eq “AppFabricCachingService”}
$ ACCNT = Get-SPManagedAccount -Identity Dominio \ ServiceAccount
$ CacheService.ProcessIdentity.CurrentIdentityType = “SpecificUser”
$ = $ CacheService.ProcessIdentity.ManagedAccount ACCNT
$ CacheService.ProcessIdentity.Update ()

Donde Dominio \ ServiceAccount es la cuenta de servicio que ha identificado previamente.

6. Puede tomar varios minutos para que se complete esta operación.

7. Después de terminar, verifique la configuración navegando a: CA> Seguridad> Configurar cuentas de servicio, la selección de servicios de Windows – caché distribuida. La nueva cuenta se debe mostrar.

Nicolás Herrera, Consultor Infraestructura, Blue Solutions.

Recomendaciones para base de datos para SCCM

La implementación de System Center Configuration Manager requiere de un servidor de base de
datos SQL Server y existen recomendaciones para esta implementación, que presentaré las más relevantes.

Servidor dedicado

SCCM es una plataforma que almacena absolutamente todo en base de datos e incluso realiza transacciones sin darnos cuenta. Hay que pensar, que en todo momento se están recibiendo inventarios e información de distribución de paquetes. Aparte, hay que tener que es una herramienta asíncrona y mantiene su propia cola de procesos y transacciones con la base de datos.
Es por eso que siempre tiene muchas conexiones abiertas hacia la base de datos.

Particiones de disco

Como todo servidor de base de datos, la configuración de los discos es vital. Es muy importante que sistema operativo, datos, logs, tempdb y respaldo queden en discos distintos. Incluso, si son máquinas virtuales, los discos virtuales deberían estar en discos físicos distintos. Si se crean los discos duros virtuales en el mismo disco o LUN, las operaciones de las bases de datos harán uso de los recursos de un único disco, impactando el rendimiento.

Collation

El collation de una base de datos SQL Server es cómo el sistema interpreta cada uno de los caracteres que se almacena en la base de datos. SCCM requiere del collationSQL_Latin1_General_CP1_CI_AS. No funciona con otro más.

Cuentas

Al momento de instalar el servidor de base de datos, es altamente recomendado configurar una contraseña para la cuenta SA. Esto facilitará la resolución en caso de problemas. Es recomendado, también, configurar las cuentas de servicio como cuentas de dominio.

Puertos

SCCM no soporta puertos dinámicos de SQL Server. Así que cuando instales una instancia para SCCM, asegúrate que el servicio esté escuchando por el puerto 1433.
Mucho cuidado con las instancias nombradas, ya que tienden a configurarse como puertos dinámicos.

64 bits siempre

La arquitectura de 32 bits no está soportada por la plataforma. Siempre se debe usar SQL Server x64 para que SCCM pueda reconocerlo como un servidor de base de datos compatible. En el caso que no sea así, el programa de instalación dará un mensaje de error de incompatibilidad, aun cuando la versión de SQL Server sea soportada.

Uso de memoria

Siempre establece un mínimo y un máximo de memoria para la instancia. Recuerda que un servidor de base de datos es como un sistema operativo, por lo tanto, el uso de memoria es crítico. Como recomendación, siempre dejar un 10% para procesos propios del sistema operativos. Con esto evitas que la instancia utilice el 100% de la memoria y el servidor se quede sin recursos.

Respaldos

La misma plataforma de SCCM incluye una tarea de mantenimiento del sitio completo, inclusive de la base de datos. Para que en el caso de recuperación ante un desastre, desde el programa de restauración del sitio, se restaure la base de datos. No está recomendado restaurar la base de datos de forma manual. La tarea de respaldo de SCCM debe ser habilitada.

1

Monitoreo

Como todo servidor de base de datos, está altamente recomendado contar con una solución de monitoreo de servicios para tener conocimiento del estado real de salud del servicio y del servidor y prevenir cuellos de botella e indisponibilidad del servicio.

CPU

Recomendación obvia, pero de todas maneras hay que mencionarla. Para una implementación de este estilo, mínimo 4 CPU si es una máquina virtual. Con esto se evita cuello de botella en el servidor.

Con estas recomendaciones, tendrás un servidor cercano a las mejores prácticas de funcionamiento e implementación y esto se traduce en un mejor rendimiento de la plataforma de SCCM.

Maximiliano Marín, Consultor Infraestructura, Blue Solutions.

Arquitectura Ideal de Exchange 2013 (PA)

Simplicidad

Las fallas ocurren. No hay tecnología que pueda cambiar eso. Discos, servidores, racks, redes, generadores, sistemas operáticos, aplicaciones (como Exchange), drivers, y otros servicios, simplemente no existe un servicio entregado por IT que no esté sujeto a fallos.

Una manera de mitigar las fallas es con una infraestructura redundante. Donde una entidad que falla, siempre tendrá una o más entidades para utilizar en su lugar. Esto se puede observar en los Web Server Array, disk array, y similares. Pero la redundancia puede ser costosa, por ejemplo, el costo y la complejidad del sistema de almacenamiento basado en SAN que estaba en el corazón de Exchange hasta la versión 2007, condujeron al equipo de Exchange en aumentar la inversión en almacenamiento para su arquitectura. Nos dimos cuenta de que cada sistema de SAN en última instancia, falla, y que la implementación de un sistema altamente redundante utilizando la tecnología SAN sería un costo muy alto. En respuesta a esto, Exchange a evolucionado de una exigencia costosa de alto rendimiento en almacenamiento SAN y periféricos relacionados, para ahora ser capaz de correr en servidores más baratos con los productos básicos SAS/SATA. Esta arquitectura permite a Exchange ser resistente a fallos relacionados con el almacenamiento permitiendo almacenar buzones de gran tamaño a un costo razonable. Con la construcción de la arquitectura de replicación y optimización de Exchange en almacenamiento, los fallos en temas de almacenamiento son prescindibles. Esta arquitectura no se detiene en la capa de almacenamiento, NIC redundantes, fuentes de poder, etc. Si se trata de un disco, controlador o placa base que falla, el resultado final debe ser el mismo, otra copia de base de datos se activa y se hace cargo. Cuanto más complejo sea el hardware o software de la arquitectura, los errores de hardware ya no se vuelven una prioridad. Ejemplos de redundancia complejos son pares activos/pasivos de red, puntos de agregación de la red con configuraciones complejas de enrutamiento, la colaboración de red, RAID, múltiples vías de fibra, etc. La eliminación de redundancia compleja no parece algo creíble, pero puede lograrse a través de una redundancia basada en Software. La Arquitectura preferida (PA) elimina la complejidad y redundancia cuando sea necesario para impulsar la arquitectura a un modelo de recuperación predecible: cuando se produce un fallo, se activa otra copia de la base de datos afectada.El PA se divide en cuatro áreas de interés:

  • Diseño de espacios de nombres
  • Diseño de datacenter
  • Diseño del servidor
  • Diseño del DAG

Namespace

Desde una perspectiva de espacio de nombres las opciones son, o bien implementar un espacio de nombres con destino preferido (que tiene una preferencia por los usuarios para operar fuera de un centro de datos específico) o un espacio de nombres no unida (que tienen los usuarios se conectan a cualquier centro de datos sin preferencia). El método recomendado es utilizar el modelo no unido, el despliegue de un único espacio de nombres según el protocolo de cliente para el par de estaciones tolerantes del datacenter (donde se supone que cada datacenter  para representar su propio sitio de Active Directory). Por ejemplo:

  • Autodiscover.dominio.com
  • Para clientes http: mail.dominio.com
  • Para clientes IMAP: imap.dominio.com
  • Para clientes SMTP: smtp.dominio.com

Cada espacio de nombre debe estar balanceado entre todos los datacenter en una configuración que no aprovecha la afinidad de sesión, lo que resulta en un cincuenta por ciento del tráfico se distribuye entre los datacenter. El tráfico se distribuye por igual entre los datacenter via DN round-robin, geo-DNS, o soluciones similares. Aunque desde nuestro punto de vista, la solución más simple es la menos complejo y más fácil de manejar, por lo que nuestra recomendación es aprovechar el DNS round-robin. En el caso de que usted tiene sitios múltiples de datacenter flexibles en su entorno, tendrá que decidir si quiere tener un único espacio de nombres en todo el mundo, o si desea controlar el tráfico a cada datacenter específico mediante el uso de espacios de nombres regionales. En última instancia su decisión depende de la topología de red y el costo asociado con el uso de un modelo no unido; por ejemplo, si usted tiene un datacenter ubicados en América del Sur y Europa, el enlace de red entre estas regiones podría no sólo ser costoso, si no también podría tener una alta latencia, que puede presentar dolor de cabeza para el usuario y las cuestiones operativas. En ese caso, tiene sentido para implementar un modelo enlazado con un espacio de nombres separado para cada región.

Diseño de Servidores

En la PA, todos los servidores son multi-rol y físicos. Se prefiere hardware físico por dos razones:

  • Los servidores se escalan para utilizar el 80% de los recursos en el peor de los casos.
  • La virtualización añade una capa adicional de administración y recuperación que no añaden valor a Exchange.

Mediante el despliegue de servidores multi-rol, la arquitectura se simplifica ya que todos los servidores tienen el mismo hardware, proceso de instalación y las opciones de configuración. Consistencia a través de servidores también simplifica la administración. servidores multi-rol proporcionan un uso más eficiente de los recursos del servidor mediante la distribución del CAS y los recursos del Mailbox a través de un mayor número de servidores. CAS y DAG son más resistente a fallas, ya que hay más servidores disponibles para el equilibrio de carga del CAS y para el DAG.

1

Figura 1: Diseño de servidores

Diseño DAG

Para cada sitio será necesario tener como mínimo un DAG.

Configuración del DAG

Al igual que con el namespace design, cada DAG dentro del sitio del datacenter opera en un modelo no unido con copias activas distribuidas por igual entre todos los servidores en el DAG. Este modelo ofrece dos ventajas:

  • Se asegura de que cada servicio de la base de datos se encuentre valida (conectividad con cliente, replicación, transporte, etc).
  • distribuye la carga a través de tantos servidores como sea posible durante un escenario de error, lo que aumenta de forma incremental solamente la utilización de recursos a través de los miembros restantes dentro del DAG.

Cada datacenter es simétrico, con igual número de servidores miembro dentro de un DAG que reside en cada datacenter. Esto significa que cada DAG contiene un número par de servidores y utiliza un servidor testigo de arbitraje quórum.

El DAG es el bloque de construcción fundamental en Exchange 2013. Con respecto al tamaño de DAG, un DAG más grande proporciona más redundancia y recursos. Dentro de la PA, el objetivo es el despliegue de los DAG con alta capacidad.

DAG Network

Desde la introducción de la replicación continua en Exchange 2007, Exchange ha recomendado tener múltiples redes de replicación, para separar el tráfico del cliente de tráfico de replicación. La implementación de dos redes le permite aislar ciertos niveles de tráfico a lo largo de las diferentes vías de la red y asegurarse de que, en determinados eventos la interfaz de red no este saturada. Sin embargo, para la mayoría de los clientes, que tiene dos redes que funcionan de esta manera era sólo una separación lógica, ya que el mismo tejido de cobre fue utilizado por ambas redes en la arquitectura de red subyacente.

Witness Server (Servidor de Testigo)

La utilización de un servidor de testigo determina si la arquitectura puede proporcionar capacidades de activación automática por datacenter en caso de fallas, o si se requerirá activación manual para subir el servicio. Si su organización tiene una tercera ubicación con una infraestructura de red que está aislado de los fallos de red que afectan el sitio del centro de datos par resistente en el que se despliega el DAG, entonces la recomendación es implementar servidor testigo del DAG en ese tercer lugar. Esta configuración ofrece la DAG la capacidad de resistencia a fallas y activación de copia pasiva en otro datacenter.

2

Figura 2: DAG (Esquema de 3 datacenter)

El PA se aprovecha de los cambios realizados en Exchange 2013 para simplificar la implementación de Exchange, sin disminuir la disponibilidad o la elasticidad del despliegue. Y en algunos casos, en comparación con las generaciones anteriores, la PA aumenta la disponibilidad y capacidad de recuperación de su implementación.

Ernesto León, Consultor Infraestructura, Blue Solutions.