Content Index aparece como UNKNOWN en Exchange 2013

Uno de los problemas de indexación normalmente en la plataforma de Exchange, es el alto consumo de RAM en el servicio de Noderunner.exe, ya que la distribución de las bases de datos entre los servidores es esencial en una plataforma como esta. Para esto es necesario remediar un problema con la indexación de las bases de datos, las cuales no permiten la activación de la copia pasiva en ninguna de las bases de datos disponibles.

Las tareas a ejecutar para la remediación son las siguientes:

  • Realizar la reparación del content index state mediante las siguientes actividades
    • Eliminación de CI y reinicio de servicios
    • Reseteo de CI mediante el script de reparación de Exchange
    • Regeneración del módulo Microsft search

Solución

En el path: E:\Program Files\Microsoft\Exchange Server\V15\Bin\Search\Ceres\Runtime\1.0

Buscamos el memoryLimitMegabytes en el archivo noderunner.config. Está establecido en 250.

————-

  <nodeRunnerSettings memoryLimitMegabytes=”250″/>

————- 

Luego lo cambiamos a 0 y reiniciamos el servicio Search Host Controller Service

El reinicio del Search Host Controller Service comenzará a realizar la reconstrucción de todos los índices por base de dato, por ende el tiempo en demorar la construcción depende mucho del tamaño por bases de datos (un par de horas).

Luis Arancibia, Consultor Cloud, Blue Solutions. 

 

Advertisements

Arquitectura Ideal de Exchange 2013 (PA)

Simplicidad

Las fallas ocurren. No hay tecnología que pueda cambiar eso. Discos, servidores, racks, redes, generadores, sistemas operáticos, aplicaciones (como Exchange), drivers, y otros servicios, simplemente no existe un servicio entregado por IT que no esté sujeto a fallos.

Una manera de mitigar las fallas es con una infraestructura redundante. Donde una entidad que falla, siempre tendrá una o más entidades para utilizar en su lugar. Esto se puede observar en los Web Server Array, disk array, y similares. Pero la redundancia puede ser costosa, por ejemplo, el costo y la complejidad del sistema de almacenamiento basado en SAN que estaba en el corazón de Exchange hasta la versión 2007, condujeron al equipo de Exchange en aumentar la inversión en almacenamiento para su arquitectura. Nos dimos cuenta de que cada sistema de SAN en última instancia, falla, y que la implementación de un sistema altamente redundante utilizando la tecnología SAN sería un costo muy alto. En respuesta a esto, Exchange a evolucionado de una exigencia costosa de alto rendimiento en almacenamiento SAN y periféricos relacionados, para ahora ser capaz de correr en servidores más baratos con los productos básicos SAS/SATA. Esta arquitectura permite a Exchange ser resistente a fallos relacionados con el almacenamiento permitiendo almacenar buzones de gran tamaño a un costo razonable. Con la construcción de la arquitectura de replicación y optimización de Exchange en almacenamiento, los fallos en temas de almacenamiento son prescindibles. Esta arquitectura no se detiene en la capa de almacenamiento, NIC redundantes, fuentes de poder, etc. Si se trata de un disco, controlador o placa base que falla, el resultado final debe ser el mismo, otra copia de base de datos se activa y se hace cargo. Cuanto más complejo sea el hardware o software de la arquitectura, los errores de hardware ya no se vuelven una prioridad. Ejemplos de redundancia complejos son pares activos/pasivos de red, puntos de agregación de la red con configuraciones complejas de enrutamiento, la colaboración de red, RAID, múltiples vías de fibra, etc. La eliminación de redundancia compleja no parece algo creíble, pero puede lograrse a través de una redundancia basada en Software. La Arquitectura preferida (PA) elimina la complejidad y redundancia cuando sea necesario para impulsar la arquitectura a un modelo de recuperación predecible: cuando se produce un fallo, se activa otra copia de la base de datos afectada.El PA se divide en cuatro áreas de interés:

  • Diseño de espacios de nombres
  • Diseño de datacenter
  • Diseño del servidor
  • Diseño del DAG

Namespace

Desde una perspectiva de espacio de nombres las opciones son, o bien implementar un espacio de nombres con destino preferido (que tiene una preferencia por los usuarios para operar fuera de un centro de datos específico) o un espacio de nombres no unida (que tienen los usuarios se conectan a cualquier centro de datos sin preferencia). El método recomendado es utilizar el modelo no unido, el despliegue de un único espacio de nombres según el protocolo de cliente para el par de estaciones tolerantes del datacenter (donde se supone que cada datacenter  para representar su propio sitio de Active Directory). Por ejemplo:

  • Autodiscover.dominio.com
  • Para clientes http: mail.dominio.com
  • Para clientes IMAP: imap.dominio.com
  • Para clientes SMTP: smtp.dominio.com

Cada espacio de nombre debe estar balanceado entre todos los datacenter en una configuración que no aprovecha la afinidad de sesión, lo que resulta en un cincuenta por ciento del tráfico se distribuye entre los datacenter. El tráfico se distribuye por igual entre los datacenter via DN round-robin, geo-DNS, o soluciones similares. Aunque desde nuestro punto de vista, la solución más simple es la menos complejo y más fácil de manejar, por lo que nuestra recomendación es aprovechar el DNS round-robin. En el caso de que usted tiene sitios múltiples de datacenter flexibles en su entorno, tendrá que decidir si quiere tener un único espacio de nombres en todo el mundo, o si desea controlar el tráfico a cada datacenter específico mediante el uso de espacios de nombres regionales. En última instancia su decisión depende de la topología de red y el costo asociado con el uso de un modelo no unido; por ejemplo, si usted tiene un datacenter ubicados en América del Sur y Europa, el enlace de red entre estas regiones podría no sólo ser costoso, si no también podría tener una alta latencia, que puede presentar dolor de cabeza para el usuario y las cuestiones operativas. En ese caso, tiene sentido para implementar un modelo enlazado con un espacio de nombres separado para cada región.

Diseño de Servidores

En la PA, todos los servidores son multi-rol y físicos. Se prefiere hardware físico por dos razones:

  • Los servidores se escalan para utilizar el 80% de los recursos en el peor de los casos.
  • La virtualización añade una capa adicional de administración y recuperación que no añaden valor a Exchange.

Mediante el despliegue de servidores multi-rol, la arquitectura se simplifica ya que todos los servidores tienen el mismo hardware, proceso de instalación y las opciones de configuración. Consistencia a través de servidores también simplifica la administración. servidores multi-rol proporcionan un uso más eficiente de los recursos del servidor mediante la distribución del CAS y los recursos del Mailbox a través de un mayor número de servidores. CAS y DAG son más resistente a fallas, ya que hay más servidores disponibles para el equilibrio de carga del CAS y para el DAG.

1

Figura 1: Diseño de servidores

Diseño DAG

Para cada sitio será necesario tener como mínimo un DAG.

Configuración del DAG

Al igual que con el namespace design, cada DAG dentro del sitio del datacenter opera en un modelo no unido con copias activas distribuidas por igual entre todos los servidores en el DAG. Este modelo ofrece dos ventajas:

  • Se asegura de que cada servicio de la base de datos se encuentre valida (conectividad con cliente, replicación, transporte, etc).
  • distribuye la carga a través de tantos servidores como sea posible durante un escenario de error, lo que aumenta de forma incremental solamente la utilización de recursos a través de los miembros restantes dentro del DAG.

Cada datacenter es simétrico, con igual número de servidores miembro dentro de un DAG que reside en cada datacenter. Esto significa que cada DAG contiene un número par de servidores y utiliza un servidor testigo de arbitraje quórum.

El DAG es el bloque de construcción fundamental en Exchange 2013. Con respecto al tamaño de DAG, un DAG más grande proporciona más redundancia y recursos. Dentro de la PA, el objetivo es el despliegue de los DAG con alta capacidad.

DAG Network

Desde la introducción de la replicación continua en Exchange 2007, Exchange ha recomendado tener múltiples redes de replicación, para separar el tráfico del cliente de tráfico de replicación. La implementación de dos redes le permite aislar ciertos niveles de tráfico a lo largo de las diferentes vías de la red y asegurarse de que, en determinados eventos la interfaz de red no este saturada. Sin embargo, para la mayoría de los clientes, que tiene dos redes que funcionan de esta manera era sólo una separación lógica, ya que el mismo tejido de cobre fue utilizado por ambas redes en la arquitectura de red subyacente.

Witness Server (Servidor de Testigo)

La utilización de un servidor de testigo determina si la arquitectura puede proporcionar capacidades de activación automática por datacenter en caso de fallas, o si se requerirá activación manual para subir el servicio. Si su organización tiene una tercera ubicación con una infraestructura de red que está aislado de los fallos de red que afectan el sitio del centro de datos par resistente en el que se despliega el DAG, entonces la recomendación es implementar servidor testigo del DAG en ese tercer lugar. Esta configuración ofrece la DAG la capacidad de resistencia a fallas y activación de copia pasiva en otro datacenter.

2

Figura 2: DAG (Esquema de 3 datacenter)

El PA se aprovecha de los cambios realizados en Exchange 2013 para simplificar la implementación de Exchange, sin disminuir la disponibilidad o la elasticidad del despliegue. Y en algunos casos, en comparación con las generaciones anteriores, la PA aumenta la disponibilidad y capacidad de recuperación de su implementación.

Ernesto León, Consultor Infraestructura, Blue Solutions.

Exchange 2013 Rol de Client Access Server

Vamos a partir hablando del Rol de Exchange. Si bien éste comparte el mismo nombre que en las dos últimas versiones de Exchange, es totalmente diferente. En Exchange 2007, el rol de Client Access Server proporciona autenticación, proxy/redirección y llevar a cabo la presentación de datos para los protocolos de internet hacia los clientes (Outlook Web App, EAS, EWS, IMAP y POP). En el caso de Exchange 2010, la presentación del protocolo MAPI fue movida hacia el rol de Client Access Server.

En Exchange 2013, el rol de Client Access Server (CAS) no realiza presentación de funcionalidad de datos. El rol de CAS ahora solo realiza la autenticación y Proxy, dando apoyo a los protocolos de internet hacia los clientes, transporte y mensajería unificada. Como resultado del cambio en la arquitectura, el rol de CAS no tiene estado (desde la perspectiva de sesión de protocolo, los datos que se pueden utilizar en la solución de problemas o se genera un análisis de tendencias de registro, de forma natural).

Afinidad de sesión

Exchange 2013 ya no requiere la afinidad de sesiones en el equilibrador de carga. Para entender mejor esto, tenemos que ver cómo funciona el rol de CAS en Exchange 2013. Desde la perspectiva de los protocolos ocurre lo siguiente:

  1. Un cliente resuelve mediante el nombre asignado para la IP virtual del balanceador.
  2. El balanceador de carga asigna la sesión a un miembro de CAS en el pool del balanceador.
  3. CAS realiza la autenticación y realiza una consulta hacia Active Directory para obtener la siguiente información:  a) Versión del buzón          b)Ubicación del buzón
  4. CAS realiza una decisión sobre si debe redirigir la solicitud a otra infraestructura de CAS dentro del bosque o realizar un proxy con la conexión hacia el Mailbox.
  5. CAS realiza una consulta a una instancia de administración de activos para determinar en qué servidor de mailbox se encuentra la copia activa de la base de datos para el buzón solicitado.
  6. CAS realiza un proxy de la solicitud al servidor que hospeda la copia activa del buzón.

El protocolo utilizado en el paso 6 depende del protocolo usado para conectar los servidores de CAS. Si el cliente utiliza el protocolo HTTP, entonces el protocolo utilizado entre el CAS y el servidor de Mailbox será HTTP (protegido vía SSL utilizando un certificado autofirmado).

Si el protocolo utilizado por el cliente es IMAP o POP, entonces el protocolo utilizado entre el servidor de CAS y Mailbox será IMAP o POP. Las solicitudes telefónicas, sin embargo, son únicas. En lugar de enviar la solicitud en el paso 6, CAS volverá a dirigir la petición al servidor de buzones que hospeda la copia activa de la base de datos del usuario, como el dispositivo telefónico utilizado necesita establecer sus sesiones por SIP y RTP, se establece la comunicación directamente con los componentes de mensajería unificada en el servidor de Mailbox.

1

Figura 1: Arquitectura de protocolos para CAS Exchange 2013

Además de no presentar datos, el paso 5 es el cambio fundamental que permite la eliminación de sesiones en el balanceador de carga. Para una sesión de protocolo, el CAS sostiene una relación 1:1 con el servidor de Mailbox que mantiene la información del usuario. En el caso de que la copia de la base de datos activa se mueva a un servidor de buzón diferente, CAS cierra las sesiones con el servidor anterior y establece sesiones al nuevo servidor. Esto significa que todas las sesiones, independientemente de su punto de origen (es decir, los miembros del CAS en la matriz de equilibrio de carga), terminan en el mismo lugar, el servidor de buzones que hospeda la copia de base de datos activa.

Ahora muchos de ustedes pueden estar pensando, espera ¿Cómo funciona la autenticación? Bueno para las solicitudes HTTP, POP, IMAP o que utilizan autenticación básica, NTLM o autenticación Kerberos, la solicitud de autenticación se pasa como parte de la carga útil de HTTP, por lo que cada CAS autenticará el requerimiento de manera natural. La autenticación basada en formularios (FBA) es diferente. FBA fue una de las razones por las cuales se requiere la afinidad de sesión para OWA en versiones anteriores de Exchange – la razón es que las cookies utilizan una clave para el cifrado por servidor, por lo que, si otro CAS recibe una solicitud, este no podía descifrar la sesión. En Exchange 2013, ya no nos aprovechamos de una clave de sesión por servidor, en vez de eso, aprovechamos la clave privada del certificado que está instalado en el CAS. Siempre que todos los miembros de la matriz de CAS compartan exactamente el mismo certificado, podrán descifrar las cookies.

Proxy vs Redirección

Anteriormente se habló acerca de cómo el CAS realiza un proxy de las solicitudes hacia el servidor de Mailbox que mantiene la copia activa de la base de datos. Antes de eso CAS tiene que tomar la decisión de re direccionar hacia otro CAS, o realizar el proxy. CAS solo realizará una redirección bajo las siguientes circunstancias:

  1. La solicitud es telefónica
  2. Para solicitudes Outlook Web App, si el buzón de mailbox se encuentra ubicado en otro sitio de Active Directory y hay un servidor de CAS en ese sitio que tiene la ExternalURL poblada, entonces el servidor de CAS de origen re direccionará la solicitud, a menos que la ExternalURL sea la misma que el servidor de origen, en cuyo caso, CAS realizará el proxy (este es un escenario con múltiples sitios y un solo espacio de nombres).

2

Figura 2: Ejemplo de Proxy y redirección de Client Access Server Exchange 2013

3. Para solicitudes OWA, si la versión del buzón de mailbox es Exchange 2007, entonces CAS Exchange 2013 re direccionará hacia el CAS Exchange 2007.

Conexión vía Outlook

Se habrán dado cuenta que hasta el momento solo se ha hablado de HTTP, POP e IMAP. No se ha mencionado en ningún momento RCP/TCP como solución de conectividad que soporta el CAS, y esto es por una razón muy específica, CAS de Exchange 2013 no es compatible con RCP/TCP, solo es compatible con RCP/HTTP (también conocida como Outlook Anywhere). Este cambio de arquitectura se realiza para conducir un modelo de conectividad más estable y fiable.

Para entender el por qué, es necesario tener en mente los siguientes principios:

  1. Recuerde, el CAS de Exchange 2013 es un servidor de Proxy/redirección y de autenticación. CAS Exchange 2013 no realiza procesamiento de datos (ni muestra ni transformación). Solamente realiza el proxy de las solicitudes hacia el Mailbox utilizando el protocolo de cliente (en este caso HTTP).
  2. CAS y Mailbox de Exchange 2013 no se encuentran unidos por una afinidad de usuarios o de manera geográfica. Es posible tener el CAS en un datacenter autenticando y realizando las solicitudes mediante proxy hacia un servidor Mailbox en otro datacenter. Para poder habilitar eso fue necesario realizar un cambio en los protocolos de comunicación utilizado entre los roles. Alejándose del protocolo RPC, hacia los protocolos de clientes los cuales son más tolerantes ante la latencia de conexiones WAN/Internet.
  3. Para un buzón dado, el protocolo que da servicio a la solicitud siempre va a ser la instancia del protocolo del servidor de buzones que hospeda la copia activa de la base de datos para el buzón del usuario. Esto se hizo para acabar con los problemas de versiones y funcionalidad que hemos visto en las últimas dos generaciones.

El último elemento está relacionado al por que ya no se utiliza el protocolo RCP/TCP como solución de conectividad. En todas las versiones anteriores del RCP endpoint era un FQDN. De hecho, el cambio hacia el nivel medio para el procesamiento de RCP en CAS de Exchange 2010 introdujo un nuevo espacio de nombres compartidos, el RCP Client Access Namespace. Moviendo el acceso de cliente de vuelta al rol de Mailbox en Exchange 2013. Esto nos obligado a utilizar el Mailbox FQDN para el RCP Endpoint o nombres compartidos para el DAG.Ninguna de las opciones es adecuada y añade complejidad al soporte de la infraestructura. En cambio, ahora utilizamos un GUID. El GUID del buzón es único dentro de la organización, por lo que independientemente de donde se activa la base de datos y se monta, CAS puede descubrir la ubicación y realizar el proxy de la solicitud hacia el servidor de Mailbox correcto.

3

Figura 3: Cambios en el RCP endpoint

Este cambio en la arquitectura significa un modelo de conexión más fiable, para un determinado número de sesiones que se dirigen al CAS, CAS de Exchange 2013 siempre tendrá una relación de 1:1 con el servidor de Mailbox que hospeda el buzón del usuario. Esto significa que en un entorno de Exchange 2013, el cliente Outlook no requerirá un reinicio cuando se muevan los buzones.

Simplificación de nombres

Otro de los beneficios de la arquitectura de Exchange 2013 es que el modelo de espacios de nombres puede ser simplificados (especialmente para las migraciones desde Exchange 2010). En Exchange 2010, un cliente que quiere implementar una solución de site-resilent para dos Datacenter requería los siguientes nombres:

  1. Nombre de protocolo de internet para primer DataCenter
  2. Nombre de protocolo de internet para segundo Datacenter
  3. Nombre de recuperación para OWA de primer Datacenter
  4. Nombre de recuperación para OWA de segundo Datacenter
  5. Nombre para RCP Client Access de primer Datacenter
  6. Nombre para RCP Client Access de segundo Datacenter
  7. Autodiscover
  8. Legacy Namespace
  9. Transport Namespace

Como se mencionó anteriormente, esto se simplificó eliminando el RCP Client Access namespace.

Recordemos que el servidor de CAS envía las solicitudes de proxy hacia el servidor que mantiene la copia activa de las bases de datos. Esta lógica de proxy no se limita a los límites del sitio de Active Directory. Un CAS de Exchange 2013 en un sitio de Active Directory puede realizar la solicitud de proxy a un servidor de Mailbox que se encuentre en otro sitio de Active Directory. Si la utilización de la red, la latencia y rendimiento no son una preocupación, esto significa que no necesitamos los espacios de nombres adicionales para escenarios de resistencia de sitio, eliminando de este modo otros tres espacios de nombres (protocolo de Internet secundaria y los dos espacios de nombres de recuperación de OWA).

 Por ejemplo, digamos que tengo una infraestructura en dos datacenter en Norte América, que tienen una configuración de red de tal manera que la latencia, el rendimiento y la utilización entre los dos datacenter no es una preocupación. También quería simplificar la arquitectura de mi namespace con la implementación de Exchange 2013 para que mis usuarios utilicen un único nombre para el acceso desde internet, independientemente de donde se encontrará su buzón. Si despliego una arquitectura como la mostrada a continuación, entonces la infraestructura CAS de ambos datacenter podrían utilizarse para enrutar el tráfico y el proxy para los servidores de Mailbox que alojan las copias activas. Como no estamos preocupados por el tráfico de red, puedo configurar DNS round robin entre las VIP de los balanceadores de carga en cada datacenter. El resultado en un sitio con resistencia a perdida mientras acepta que la mitad del trafico proxy estará fuera del sitio.

4

Figura 4: Único espacio de nombre en Exchange 2013.

Transporte

El servidor de Client Access puede realizar de proxy para las sesiones de SMTP. Esto es manejado por un nuevo componente, el servicio de transporte Front-End, El servicio de transporte front-end maneja todo el tráfico SMTP externo de entrada y salida de la organización de Exchange, así como, puede ser un cliente endpoint para el tráfico SMTP. Las funciones del servicio de transporte front-end funciona como proxy de capa 7 y tiene acceso completo al protocolo de conversación, el servicio de transporte front-end no tiene una cola de mensajes. Además, el servicio de transporte front-end no realiza bifurcación del mensaje.

El servicio de transporte front-end utiliza los puertos TCP25, TCP587, y TCP717 como se ve en el siguiente diagrama:

5

Figura 5: Arquitectura del servico de transporte front-end.

El servicio de transporte front-end proporciona protección a la red, un sistema centralizado, balanceador de carga para la salida/entrada hacia la organización de Exchange, ya sea por clientes POP/IMAP, Sharepoint, o aplicaciones de terceros.

Para los mensajes de salida, el servicio de transporte front-end se utiliza como proxi cuando los conectores de envió (que se encuentran ubicados en los servidores de Mailbox) tienen el conjunto de propiedades de FrontEndProxyEnabled. En esa situación, aparecerá que el mensaje se originó a partir del CAS.

Para los mensajes entrantes, el servicio de transporte front-end debe encontrar rápidamente un servicio de transporte saludable en un servidor de Mailbox que reciba una transición del mensaje, independientemente de la cantidad o el tipo de destinatarios:

  • Para mensajes con un único destinatario, se seleccionará el servidor de Mailbox en el grupo de entrega de destino, y se dará preferencia en el servidor que se encuentre más cercano basado en las configuraciones de los sitios de Active Directory
  • Para los mensajes con múltiples destinatarios, los primeros 20 destinatarios utilizaran el servidor de Mailbox más cercano basado en las configuraciones de los sitios de Active Directory.
  • Si el mensaje no tiene destinatarios, se seleccionará un servidor de Mailbox al azar en el sitio local de Active Directory.

En conclusión, el rol de Client Access Server simplifica la capa de red. La afinidad de sesiones en el balanceador de carga ya no se requiere en CAS de Exchange 2013. CAS introduce una mayor flexibilidad en la implementación, ya que permite simplificar la arquitectura de su namespace, lo que podría consolidar en un único nombre a nivel regional o mundial para los protocolos de internet. La nueva arquitectura también simplifica la historia de actualización e interoperabilidad, como CAS puede actuar como proxy o redirigir a multiples versiones de Exchange, lo que permite actualizar los servidores de Mailbox a su propio ritmo.

Ernesto León, Consultor Infraestructura, Blue Solutions.

Exchange 2013 Filtro de contenido, Administración de contenido

Esta es una explicación sobre cómo bloquear por asunto, o añadir frases a la lista negra del filtro de contenido instalado en la plataforma de Exchange 2013, para que todo correo que sea analizado y contenga las frases indicadas, sea bloqueado y llevado directamente a la cuarentena. Además de explicar el cómo realizar la liberación de los buzones del filtro de contenido instalado en la plataforma de Exchange 2013 para evitar que todos los correos caigan al buzón de cuarentena.

Este documento tiene como objetivo explicar la realización de bloqueo de contenido en el filtro aplicado en la plataforma de Exchange 2013,  y los correos sean rechazados y enviados hacia la cuarentena. Por otro lado, también explicar cómo realizar la liberación de buzones para evitar el filtro de contenido y los correos no caigan en el buzón de cuarentena y sea entregado de manera exitosa al destinatario final.

Bloqueo de contenido no deseado

Para añadir reglas de bloqueo de contenido, solo se debe realizar a través de PowerShell. Para esto debemos utilizar el cmdlet Add-ContentFilterPhrase, de la siguiente manera.

Add-ContentFilterPhrase –Influence BadWord – Phrase “esto es un test”

1

Con esto ya realizamos el bloqueo, y nos entregará el resultado de toda la información con respecto a la frase bloqueada. Para verificarlo, utilizamos el cmdlet Get-ContentFilterPhrase | ft Influence, Phrase –AutoSize

2

Esto nos da de forma cómoda la información sobre todas las frases que se encuentran bloqueadas o permitidas.

NOTA: Esta configuración sirve para el bloqueo por asunto como para el bloqueo por contenido del mismo.

 

Eliminar bloqueo de contenido

Es posible eliminar frases añadidas al filtro de contenido a través de PowerShell, pero para esto, es necesario utilizar la frase exacta para eliminar a través del cmdlet Remove-ContentfilterPhrase.

Remove-ContentFilterPhrase –Phrase “esto es un test”

3

Y verificamos.

4

Permitir Contenido

Otra de las características del filtro de contenido, es añadir una regla para permitir ciertas frases del filtro de contenido con la finalidad de disminuir la cantidad de bloqueos erróneos en la plataforma.

Para esto utilizando Add-ContentFilterPhrase bastara con cambiar el parámetro BadWord por GoodWord.

5

Y para eliminar, se realiza de la misma manera que con el contenido bloqueado, a través de Remove-ContentfilterPhrase

6

Bloqueo por emisor

Dentro de las características del filtro de contenido, también se permite el bloqueo por emisor o dominio emisor, esta configuración puede ser verificada a través de PowerShell empleando el cmdlet Get-SenderFilterConfig, esto puede utilizarse para mail y dominio.

7

Para realizar la modificación utilizamos set-Senderfilterconfig –BlockSenders @{add=’eleon@bluesolutions.cl’} o set-Senderfilterconfig –BlockDomains @{add=’dominio’}

8

Y verificamos realizando una prueba de correos.

9

Eliminar bloqueo por emisor

Para poder eliminar cualquier tipo de bloqueo de emisores, ya sea a buzones o dominios, se utiliza Set-SenderFilterconfig –BlockedSenders @{remove=’eleon@bluesolutions.cl’} o Set-SenderFilterConfig –BlockedDomains @{remove=’dominio’}

10

Añadir receptores seguros

El primer paso para la liberación de los buzones, es añadir la dirección de correo en la lista del filtro de contenido y en la regla de bypass creada.

Para añadir receptores a la excepción del filtro de contenido, se debe realizar a través de Power Shell de Exchange utilizando el cmdlet Set-ContentFilterConfig como se muestra en el ejemplo a continuación:

11

Este cmdlet puede también ser utilizado para agregar múltiples direcciones.

Set-ConentFilterConfig  -BypassedRecipients @{add=’direccion@uno’, ’direccion@dos’, ’…’}

Para verificar si esto funciona de manera correcta, se debe ejecutar Get-ContentFiletConfig de la siguiente forma:

(Get-ContentFilterConfig).BypassedRecipients | ft local, domain –AutoSize -Wrap

12

Ya que de otra forma, no nos entregará todos los resultados de esta búsqueda.

13

Posterior a esta configuración en el filtro de contenido, debemos añadir las cuentas a la regla de transporte que fue generada en la consola de administración de Exchange. Para esto debemos ingresar a mail flow y en la pestaña rules ubicar la regla de nombre ByPassRecipient.

14

Ingresamos a las configuraciones de la regla, y lo primero que veremos será un listado con todos los buzones que fueron añadidos como receptores seguros para esta regla de ByPass.

15

Para poder añadir direcciones a esta regla, debe ingresar a la configuración haciendo click en los nombres que se encuentran a la derecha, una vez dentro en el recuadro de check names debe ingresar la dirección completa de correo.

Tal cual como se muestra en la imagen.

16

NOTA: estos se deben ingresar uno por uno, ya que al poner una “,” al final de la dirección la añadirá de manera automática al filtro.

Añadir emisores seguros

La ultima configuración que se debe realizar para liberar los buzones, es añadir el remitente que se encargará de comunicarse con ese o esos buzones, a través del nombre de dominio y la dirección de correo.

Para añadir un dominio a la WhiteList, se debe realizar desde PowerShell y desde la regla BypassSender. Mediante PowerShell debemos verificar primero que el dominio que queremos ingresar no se encuentre, utilizando Get-TransportConfig.

17

El parámetro BypassedSenderDomain es donde se encuentran los dominios en WhiteList, y para añadir un nuevo dominio debe utilizarse el cmdlet Set-TransportConfig de la siguiente manera:

18

Y Verificamos.

19

Para concluir con la configuración de la WhiteList debemos añadiros a la regla ByPassSender desde la configuración de rules en mail flow.

20

Y de igual manera, ingresamos a su configuración.

21

Desde aquí, podemos ingresar el dominio, el cual queremos liberar y el buzón que enviará los mensajes, ya sea de una organización externa o de manera interna, y de igual manera que en las configuraciones anteriores, debemos ingresar dirección de correo, y dominio.

Y añadimos las direcciones de correo que queremos liberar.

22

NOTA: Al igual que la configuración de los receptores, hay que añadirlas una por una.

Y esta es la ventana para incorporar dominios a la WhiteList.

23

En resumen, estas configuraciones son esenciales para el filtro de contenido del anti-spam de Exchange 2013, esto debido a que permiten especificar campos para bloquear o permitir como dominios, emisores, receptores, asunto y cuerpo del mensaje a través del módulo de Exchange PowerShell.

Ernesto León, Consultor de Infraestructura, Blue Solutions.

Síganos en LinkedIn Blue Solutions Chile.

¿Cómo podemos resolver el error NDR en Exchange 2013?

En más de una ocasión  dentro de las organizaciones nos podemos encontrar con algún mensaje  NDR al enviar mails internos a nivel On-premise en coexistencia (migración) en Exchange 2013.

Sólo se puede presentar un NDR cuando se envía un correo electrónico desde Exchange y se encamina a través de Hub Transport de éste.

El error se presenta de esta forma:

Delivery has failed to these recipients or distribution lists: contacto@luisarancibia.cl

 Your message wasn’t delivered because of security

 policies. Microsoft Exchange will not try to

 redeliver this message for you. Please provide the following

 Diagnostic text to your system administrator.

Esto sucede cuando el sender que tenemos en los atributos ProhibitSendReceiveQuota y ProhibitSendQuota es 0 KB para el mailbox que tiene el problema.

Para poder dar solución a nuestro problema debemos correr el siguiente cmdlet para obtener detalles sobre qué usuarios tienen problemas obteniendo NDR.

[PS] C:\Get-Mailbox -id “UserID” | fl IssueWarningQuota,ProhibitSendReceiveQuota,ProhibitSendQuota

Para obtener un listado con todos los usuarios que tienen 0 KB para ProhibitSendReceiveQuota y ProhibitSendQuota  podemos ejecutar el siguiente cmdlet.

[PS] C:\Get-mailbox-ResultSize Unlimited | where {($_.ProhibitSendReceiveQuota -eq 0KB -or$_.ProhibitSendQuota-eq 0KB) -and $_.UseDatabaseQuotaDefaults -eq”true”}

Una vez revisados los ProhibitSendReceiveQuota y ProhibitSendQuota para los usuarios, aplicaremos el cambio de 0 KB a ilimitado. Debemos ejecutar los siguientes scripts.

[PS] C:\Set-Mailbox -Identity “UserID” -IssueWarningQuota “unlimited”

[PS] C:\Set-Mailbox -Identity “UserID” -ProhibitSendReceiveQuota “unlimited”

[PS] C:\Set-Mailbox -Identity “UserID” -ProhibitSendQuota “unlimited”

Luego de ejecutar estos cambios, debemos volver a realizar pruebas funcionales y verificar si el flujo de correo es el deseado.

Los NDR pueden ser personalizados, si la organización lo desea manteniendo una base de datos interna de identificación por error, así podremos reconocer con mayor facilidad los usuarios con error.

Luis Arancibia, Consultor Cloud, Blue Solutions.