{译}RedHat GFS对比NFS :提高性能和可扩展性

本文翻译自:http://www.redhat.com/magazine/008jun05/features/gfs_nfs/

原文作者: Matthew O’Keefe

译者: Timo

本文是对比Red Hat GFS(Global Filesystem)和NFS的基础文档,用来说明2种文件系统的区别。以及GFS的优势在哪里。

数据共享在今天的现代计算机世界是必须的。当收到数据请求,包括允许一个服务器群集对一个存储连接池的访问请求, RedHat GFS是简化您的数据架构,最大限度地减少存储成本,增加存储的速度,并实现最大的正常运行时间的方案。
类似于红帽GFS的集群文件系统像使用基于IP分块网络的iSCSI共享协议,以提供可扩展低成本的文件服务。网络文件系统( NFS )是一种常见的共享存储解决方案通过使用许多设备。然而,在某些情况下,这一解决方案并不可扩展。GFS和NFS如何比较? 下文讲进行解释。
红帽®企业版Linux ®客户遇到有性能问题的NFS并且只使用Linux下的NFS客户端可以使用基于iSCSI的IP分块联网Red Hat GFS来很快提高它们的性能和扩展性。

比较 :
NFS的是Linux和UNIX下一种流行的文件共享协议。 图1 显示 不同的NFS和GFS在服务器群集下数据共享硬件拓扑。 图1  显示了典型和最常见的NFS的部署:一个单一的NFS服务器有自己的本地存储连接到在网络上的客户端。 GFS的数据共享群集构建一个具有相同的硬件架拓扑iSCSI服务器,并在实践中,拥有更好的性能。此外,不同于NFS ,GFS像一个本地文件系统因为它兼容POSIX行为。这意味着,分布式Linux应用程序可以取得良好的访问性能访问共享文件通过实现兼容POSIX标准的集群。
注:
特别是, NFS不支持UNIX (和Linux )进程的所支持的同一文件同步语义:在UNIX ,如果一个进程写入一个文件,另一个进程读该文件在稍后时间保证看到前面所写的。  NFS没有这种保证,除非特别设置写入缓存,但使用可能产生负面影响。

single图1 。 Comparing NFS and Red Hat GFS/iSCSI hardware topologies

图2 显示两组NFS服务器作为故障切换和后端的存储区域网络( SAN ); 相对的数据共享群集拓扑显示,包含两个iSCSI服务器共享SAN存储。就像图1 一样物理拓扑结构是一样的,但功能可在这两个系统已经相差很远。 在NFS的服务器只是作为一个容错互备:他们不共享文件,只有物理块存储(每个NFS服务器输出本地文件系统来映射到SAN一个共享卷) 。 必须维护两个单独的文件系统,而且在同一时间只有一个NFS服务器可以提供的处理能力来处理NFS的要求特定的文件系统。 相比之下,在数据共享集群里一个单一的文件系统可以被映射到SAN存储:这两个iSCSI服务器协作,以提供共享文件系统。 如果一个iSCSI服务器出现故障,GFS的服务器节点可以通过路由绕开周围的失效的节点来访问仍在运作的iSCSI存储服务器。

paired图2 。 Paired NFS and Red Hat GFS/iSCSI servers

图3 显示系统拓扑规模扩展到四个NFS和四个iSCSI服务器。  请注意, NFS服务器不同于是iSCSI节点是它没有一个SAN的存储空间。 这意味着,每一个NFS服务器可以提供访问的只是一个单一的文件系统,它是不可能增加更多的NFS服务器的处理能力增加服务以提供部分的文件系统。 相比之下, 4个iSCSI服务器通过SAN连接到共享存储,并提供所有四个服务器处理能力的GFS服务器。事实上,更多的iSCSI服务器可以按需添加到GFS服务器数据共享集群,但是必须与SAN的处理能力想匹配。 存储容量也可逐步增加的SAN,可以提供访问一个或多个文件系统。四个的NFS服务器在图3中显示的是四个独立的存储空间,并且性能和效率含有瓶颈的NFS服务器。

multiple图3.Multiple NFS servers and a Red Hat GFS/iSCSI data sharing cluster

摘要
红帽GFS可结合iSCSI存储网络,以提供更好的性能相比单独的NFS实现。

comparing-gfs-and-nfsTable 1. Comparing GFS/iSCSI and NFS