X

News, tips, partners, and perspectives for the Oracle Solaris operating system

WebSphere MQ V6.0 y WebSphere Message Broker V6.0

Guest Author
Dada la retirada de compatibilidad por parte de IBM para WebSphere MQ V5.3 y WebSphere Integration Message Broker V5.0 el 28 de septiembre de 2007, sospecho que un gran número de clientes de IBM WebSphere estarán pensando en migrar a WebSphere MQ V6.0 y WebSphere Message Broker V6.0.
Para facilitar la migración, puede resultar útil tener claro los siguientes aspectos:
1. WebSphere MQ V6.0 y WebSphere Message Broker V6.0 pueden implementarse en Solaris 10 SPARC y Solaris 10 x86-64, así como en los contenedores de Solaris.
2. IBM ha llevado a cabo informes de rendimiento para WebSphere MQ V6.0 y WebSphere Message Broker V6.0 en Sun Solaris; el último informe realizada trataba sobre los sistemas Sun Fire T2000 con Solaris 10.
WebSphere Message Broker V6.0 para Solaris - Informe de rendimiento (ip6e.pdf)
WebSphere MQ V6.0 para Solaris - Evaluaciones de rendimiento (mp6m-SunFire.pdf)
Sin embargo, ¿sabía que con Sun Cluster 3.2 puede disfrutar de alta disponibilidad para WebSphere MQ V6.0 y WebSphere Message Broker V6.0 en Solaris 10 SPARC y Solaris 10 x86-64, así como en los contenedores de Solaris mediante los siguientes agentes de Sun Cluster 3.2?
SunPlex(TM) High Availability (HA) Agent para IBM WebSphere MQ SunPlex(TM) High Availability (HA) Agent para IBM WebSphere Message Broker
Esto implica que podría implementar varias instancias de WebSphere MQ V6.0 y WebSphere Message Broker V6.0 en distintos contenedores de Solaris con el respaldo de Sun Cluster 3.2. Por ejemplo, ¿no sería genial consolidar su carga de trabajo en un sistema T2000 o servidores x6400 (por nombrar dos ejemplos) sabiendo que también contará con alta disponibilidad?
Neil Garthwaite, Departamento de ingeniería de Sun Cluster

Be the first to comment

Comments ( 0 )
Please enter your name.Please provide a valid email address.Please enter a comment.CAPTCHA challenge response provided was incorrect. Please try again.