问题:当业务使用了SSESSION保存某些对象,怎样在集群时复制这些对象?
TOMCAT5已经考虑过这种集群所导致的问题,其实也就是cluster的问题。
如果采用了TOMCAT 的cluster解决方案,我相信应该可以保证session等信息的同步可操作。
另外,TOMCAT要求放到SESSION里的对象要需要实现Serializable,以确保各个对象能被正常复制。
有人提出疑问,SESSION使用的是MAP来保存数据,序列化时不会把实际的对象序列化。其实看看HashMap序列化的代码就可以知道,在SESSION序列化时,是可以正确将Map中保存的数据对象序列化的。更主要的是,TOMCAT序列化SESSION时,并没有使用HashMap的序列化方式,而是将各个保存的对象读出来单独进行序列化。
因此保存到SESSION中的对象实例应该也会被复制。
这样就可以保证各个服务器上的内存数据一样了。
另外一个问题是许多人担心 TOMCAT 的这个解决发方案的性能问题,其实同步某某些内容信息如SESSION的代价并不是很大的,特别在几台工作站属于同一个网内。想对其带来的横向扩展性能,可以忽略,我想。
参考:
TOMCAT中SESSION序列化的代码:
protected void writeObject(ObjectOutputStream stream) throws IOException {
// Write the scalar instance variables (except Manager)
stream.writeObject(new Long(creationTime));
stream.writeObject(new Long(lastAccessedTime));
stream.writeObject(new Integer(maxInactiveInterval));
stream.writeObject(new Boolean(isNew));
stream.writeObject(new Boolean(isValid));
stream.writeObject(new Long(thisAccessedTime));
stream.writeObject(id);
if (debug >= 2)
log("writeObject() storing session " + id);
// Accumulate the names of serializable and non-serializable attributes
String keys[] = keys();
ArrayList saveNames = new ArrayList();
ArrayList saveValues = new ArrayList();
for (int i = 0; i < keys.length; i++) {
Object value = null;
synchronized (attributes) {
value = attributes.get(keys[i]);
}
if (value == null)
continue;
else if (value instanceof Serializable) {
saveNames.add(keys[i]);
saveValues.add(value);
}
}
// Serialize the attribute count and the Serializable attributes
int n = saveNames.size();
stream.writeObject(new Integer(n));
for (int i = 0; i < n; i++) {
stream.writeObject((String) saveNames.get(i));
try {
stream.writeObject(saveValues.get(i));
if (debug >= 2)
log(" storing attribute '" + saveNames.get(i) +
"' with value '" + saveValues.get(i) + "'");
} catch (NotSerializableException e) {
log(sm.getString("standardSession.notSerializable",
saveNames.get(i), id), e);
stream.writeObject(NOT_SERIALIZED);
if (debug >= 2)
log(" storing attribute '" + saveNames.get(i) +
"' with value NOT_SERIALIZED");
}
}
}
HashMap序列化的代码:
private void writeObject(java.io.ObjectOutputStream s)
throws IOException
{
// Write out the threshold, loadfactor, and any hidden stuff
s.defaultWriteObject();
// Write out number of buckets
s.writeInt(table.length);
// Write out size (number of Mappings)
s.writeInt(size);
// Write out keys and values (alternating)
for (Iterator i = entrySet().iterator(); i.hasNext(); ) {
Map.Entry e = (Map.Entry) i.next();
s.writeObject(e.getKey());
s.writeObject(e.getValue());
}
}