技术解读NVIDIA最新vGPU7.0解决方案,赋能AI实践特性(转)

最新的NVIDIA vGPU解决方案通过加速工作流程、让用户能够随时随地开展工作,助力设计师和工程师将其创作转变为现实。此外,数字化办公场所中现代化应用程序和操作系统(如Windows 10)的图形密集程度越来越高,最新vGPU解决方案可为其提供经济高效的性能和易管理性。分享现场,NVIDIA中国区云计算总监马庆胜马庆胜、GPU虚拟化高级解决方案架构师张洁、以及中国区解决方案架构师李浩南对该方案进行了全面细致的技术解读。

5年前,NVIDIA推出了GPU虚拟化。如今,NVIDIA GRID经过5年多的发展,从软硬一体到单纯的软件,从一个只能支持一个明确固定型号的GPU到现支持最新Tesla系列的所有GPU,从对图形图像进行支持、解决客户在使用图形图像时的重负载应用时如何在数据中心部署的问题,到如今在虚拟GPU上实现GPU计算部分能力的业务。

2018年10月份,NVIDIA发布了vGPU 7.0,这个版本当中重点增强了以下几方面的特性。

一、对于GPU虚拟化本身来说,在最早提出的时候是把一个物理的GPU去做切片,实现了“一虚多”的概念,在桌面虚拟化的场景里可以替代传统的工作站场景。vGPU 7.0当中最重要的特性是在传统的切片形式上,支持了另外一种形式,即可以把多个物理GPU分配给某一个虚拟机,以拓展整个GPU虚拟化的用户场景。也就是说不仅可以做GPU资源切片,还可以满足对GPU图形和计算的要求不是很高的用户场景,实现资源共享。从另外一个角度来说,如果用户对GPU的资源、对算力要求更强,可以在vGPU 7.0的平台里实现多GPU,从而满足用户对高算力的要求。在vGPU 7.0之前,这方面是一个空白。

此外,vGPU 7.0对计算机和算力需求的满足还体现在提供了一个良好的上下游生态环境。在上游,NVIDIA和软件厂商一起深度合作,让其应用可以最大化利用GPU的资源做图形、计算加速;在下游,NVIDIA和大量的服务器硬件厂商、云厂商合作,让GPU可以部署在传统的数据中心或者是云端。另外,NVIDIA还把在物理GPU上做的所有生态环境的事情,平滑移植到虚拟GPU上,让虚拟GPU也可以得到相同的生态环境支持。一个物理GPU的用户,可以通过生态环境的一致性,非常平滑地移植到虚拟环境里,从而保证用户体验。虽然GPU不可能完全按照客户的实际需要来匹配型号,但是今天的虚拟化,意味着NVIDIA可以把资源放在资源池里,以更好地匹配客户的需要。

二、数据中心的属性加强。因为数据中心强调高可用性、业务稳定性,因此数据中心会比传统用户前端的计算模式要求更高的灵活性和管理性。所以vGPU 7.0配合了VMware最新版本的服务器虚拟化解决方案,vSphere 6.7 U1。可配合VMware在数据中心实现带有GPU的虚拟机可实现动态的热迁移,在迁移的整个过程当中,用户的业务是不中断的。

  • vGPU 7.0加入了AI的特性。借助可配合简化AI部署的NVIDIA GPU Cloud,用户可以从云端快速地把需要做人工智能业务的用户环境拖下来进行部署,而之前所有的NVIDIA GPU Cloud的云端服务是不支持虚拟化平台部署的。在vGPU上,我们可以配合NVIDIAGPU Cloud,快速部署人工智能相关的业务负载。

据李浩南介绍,在虚拟化技术不具备GPU功能的时候,客户使用传统图形工作站时经常会面临多个痛点。

第一个痛点是数据安全问题。为了安全性,大的企业会把USB口封掉,再购买一些数据加密软件,对硬盘进行全盘加密等。有了vGPU技术之后,图形工作站可通过vGPU的技术,进行集中化的管理不再有数据丢失的问题。

第二个痛点是配置不灵活。有些设计师提的一些配置要求是和当下的需求相关的,但是随着业务越来越复杂,设计师会提出配置不够、需要换机器、改配硬件的需求,IT操作起来很麻烦。有了vGPU在数据中心的实现,IT很容易配置多CPU,包括vGPU7.0可以用多GPU技术。多GPU技术有几个场景,比如说在原来的图形工作站中的一些高端场景里会配两个GPU,如果在CD场景里,一个GPU做3D建模,一个GPU做仿真;在影视后期里,一个GPU用来做动画建模,另外一个GPU用来做渲染……只有一个GPU的时候,只能在一个时间内做其中一个任务,而两个GPU可以同时做:一个做交互式的设计,一个用来做渲染。

第三个痛点是提升效率。在制造业的场景里,PDM解决方案很常见,设计师使用传统的图形工作站时,设计数据都是保存在PDM服务器上的,也就是说设计师在工作前,要先到PDM服务器上去拿数据,他可能需要等十几分钟。有了vGPU技术之后,实际的虚拟工作站和PDM服务器在同一个数据中心的网络中,数据加载速度很快,且加载好之后,可以马上把加载好的场景通过虚拟化的编解码方式传递像素。设计师短时间内可以开始设计了,达到提升效率的目的。

所以安全、配置灵活、提升效率就是NVIDIA vGPU给客户带来的好处。因此目前,vGPU在多个领域的应用程度都十分之高。

传统的图形工作站在解决使用者对性能要求的同时还有一大弊端,因为数据流在本地,这意味着技术解读NVIDIA最新vGPU7.0解决方案,赋能AI实践特性

最新的NVIDIA vGPU解决方案通过加速工作流程、让用户能够随时随地开展工作,助力设计师和工程师将其创作转变为现实。此外,数字化办公场所中现代化应用程序和操作系统(如Windows 10)的图形密集程度越来越高,最新vGPU解决方案可为其提供经济高效的性能和易管理性。分享现场,NVIDIA中国区云计算总监马庆胜马庆胜、GPU虚拟化高级解决方案架构师张洁、以及中国区解决方案架构师李浩南对该方案进行了全面细致的技术解读。

5年前,NVIDIA推出了GPU虚拟化。如今,NVIDIA GRID经过5年多的发展,从软硬一体到单纯的软件,从一个只能支持一个明确固定型号的GPU到现支持最新Tesla系列的所有GPU,从对图形图像进行支持、解决客户在使用图形图像时的重负载应用时如何在数据中心部署的问题,到如今在虚拟GPU上实现GPU计算部分能力的业务。

2018年10月份,NVIDIA发布了vGPU 7.0,这个版本当中重点增强了以下几方面的特性。

一、对于GPU虚拟化本身来说,在最早提出的时候是把一个物理的GPU去做切片,实现了“一虚多”的概念,在桌面虚拟化的场景里可以替代传统的工作站场景。vGPU 7.0当中最重要的特性是在传统的切片形式上,支持了另外一种形式,即可以把多个物理GPU分配给某一个虚拟机,以拓展整个GPU虚拟化的用户场景。也就是说不仅可以做GPU资源切片,还可以满足对GPU图形和计算的要求不是很高的用户场景,实现资源共享。从另外一个角度来说,如果用户对GPU的资源、对算力要求更强,可以在vGPU 7.0的平台里实现多GPU,从而满足用户对高算力的要求。在vGPU 7.0之前,这方面是一个空白。

此外,vGPU 7.0对计算机和算力需求的满足还体现在提供了一个良好的上下游生态环境。在上游,NVIDIA和软件厂商一起深度合作,让其应用可以最大化利用GPU的资源做图形、计算加速;在下游,NVIDIA和大量的服务器硬件厂商、云厂商合作,让GPU可以部署在传统的数据中心或者是云端。另外,NVIDIA还把在物理GPU上做的所有生态环境的事情,平滑移植到虚拟GPU上,让虚拟GPU也可以得到相同的生态环境支持。一个物理GPU的用户,可以通过生态环境的一致性,非常平滑地移植到虚拟环境里,从而保证用户体验。虽然GPU不可能完全按照客户的实际需要来匹配型号,但是今天的虚拟化,意味着NVIDIA可以把资源放在资源池里,以更好地匹配客户的需要。

二、数据中心的属性加强。因为数据中心强调高可用性、业务稳定性,因此数据中心会比传统用户前端的计算模式要求更高的灵活性和管理性。所以vGPU 7.0配合了VMware最新版本的服务器虚拟化解决方案,vSphere 6.7 U1。可配合VMware在数据中心实现带有GPU的虚拟机可实现动态的热迁移,在迁移的整个过程当中,用户的业务是不中断的。

三、vGPU 7.0加入了AI的特性。借助可配合简化AI部署的NVIDIA GPU Cloud,用户可以从云端快速地把需要做人工智能业务的用户环境拖下来进行部署,而之前所有的NVIDIA GPU Cloud的云端服务是不支持虚拟化平台部署的。在vGPU上,我们可以配合NVIDIAGPU Cloud,快速部署人工智能相关的业务负载。

据李浩南介绍,在虚拟化技术不具备GPU功能的时候,客户使用传统图形工作站时经常会面临多个痛点。

第一个痛点是数据安全问题。为了安全性,大的企业会把USB口封掉,再购买一些数据加密软件,对硬盘进行全盘加密等。有了vGPU技术之后,图形工作站可通过vGPU的技术,进行集中化的管理不再有数据丢失的问题。

第二个痛点是配置不灵活。有些设计师提的一些配置要求是和当下的需求相关的,但是随着业务越来越复杂,设计师会提出配置不够、需要换机器、改配硬件的需求,IT操作起来很麻烦。有了vGPU在数据中心的实现,IT很容易配置多CPU,包括vGPU7.0可以用多GPU技术。多GPU技术有几个场景,比如说在原来的图形工作站中的一些高端场景里会配两个GPU,如果在CD场景里,一个GPU做3D建模,一个GPU做仿真;在影视后期里,一个GPU用来做动画建模,另外一个GPU用来做渲染……只有一个GPU的时候,只能在一个时间内做其中一个任务,而两个GPU可以同时做:一个做交互式的设计,一个用来做渲染。

第三个痛点是提升效率。在制造业的场景里,PDM解决方案很常见,设计师使用传统的图形工作站时,设计数据都是保存在PDM服务器上的,也就是说设计师在工作前,要先到PDM服务器上去拿数据,他可能需要等十几分钟。有了vGPU技术之后,实际的虚拟工作站和PDM服务器在同一个数据中心的网络中,数据加载速度很快,且加载好之后,可以马上把加载好的场景通过虚拟化的编解码方式传递像素。设计师短时间内可以开始设计了,达到提升效率的目的。

所以安全、配置灵活、提升效率就是NVIDIA vGPU给客户带来的好处。因此目前,vGPU在多个领域的应用程度都十分之高。

传统的图形工作站在解决使用者对性能要求的同时还有一大弊端,因为数据流在本地,这意味着数据安全性是个问题,同时现在设计要求协同完成,使用者的服务场所可能会分布在不同的地点。这些问题一直困扰着这些既需要强大的图形处理能力同时又希望能够满足数据安全、协同工作的用户。如果说没有GPU虚拟化,就要在满足设计师工作需要和解决数据安全中做出取舍。有了GPU虚拟化,这些问题就迎刃而解。不仅数据安全、协同可以解决,同时可以使得资源调度做得更好,特别是在图形重负载、设计领域。这些领域中CAD建模、CAE和渲染都都集中在数据中心,使得围绕着数据中心构建的GPU资源可以更好地给用户灵活使用。而且现在,很多企业希望可以介入到人工智能深度学习的领域里,使得产品具备人工智能的属性和特征,但是他又没有能力研发,所以实际上因为在vGPU上支持了人工智能的特性,所以使得很多技术人员可以在这个环境下去学习、了解和尝试,使得在产品设计和研发过程当中能够把人工智能的属性和产品的特性做结合,更好提升自己产品的独特性。

此外,马庆胜也提到,图形的轻负载应用也是较为常见的场景之一。微软推出Windows 10之后,几乎所有的Win10系统所支持的应用都需要得到GPU支持,或者说需要大量的GPU资源才能让运行在Win10上的各种应用效果得到很好的提升。在物理机上,无论是笔记本还是台式机都有GPU的存在,但是如果说是构建在桌面虚拟化或者是桌面云上,没有GPU那自然就体验不好,NVIDIA vGPU解决方案可以解决这个问题。不仅如此,因为提高了密度,因此用户可以更加经济、更加有效的在数据中心部署他的桌面。

除图形的重负载和图形的轻负载应用之外,张洁也补充了单独运算方面的一些应用场景。NVIDIA在2017年的时候发布了vGPU 5.0,这个版本当中,第一次引入了通过vGPU支持计算的功能,从而实现了GPU对计算方面的加速。NVIDIA的GPU两个很重大的应用场景:一个是图形场景,一个是计算场景。我们在一个统一平台里可以实现两种负载,这两种负载又会延伸出来不同的更细节的场景。图形方面,有办公的图形Win10,也有设计用户的重负载的图形。计算方面也会延伸出不同的场景,在vGPU跟人工智能相结合的地方,比较多的是一些教育行业的案例。

从2003年北大第一次开设了人工智能的课程,到2018年6月份,全国已经有50多个大学开设了人工智能课程。但是这个课程开设完了之后,学生需要有一个GPU的环境来实现他的实际操练、实际训练的过程。一般来说,如果没有GPU虚拟化,老师可能需要给每一个学生配一个物理GPU。而有了GPU虚拟化后,可以给每个学生提供一个虚拟的GPU来做实训、培训。从另外一个角度来说,在一定程度上可以降低用户成本。一个典型的场景是:做实训的时候,给学生一个切割的vGPU、一个完整的环境,让他基本了解GPU怎么做加速的一些功能。另外,GPU虚拟化可以让GPU资源灵活调度,因此在非教学时间,GPU的资源可以通过虚拟化释放出来,老师可以把这些GPU资源再聚合起来做一些科研上的工作。

vGPU在过去一年经历了飞速发展,整个产品的迭代很快,能够基础解决的层面都是快速在向前发展。目前在国内,NVIDIA在制造业、重型制造业、车企等领域的客户已经部分开始部署了。举一个案例,为主机场提供配套设备的一家企业。它的规模不算很大,大概有300多个设计师,因为要和主机厂对接,300多个设计师如果用传统的图形工作站,企业每年做软件的正版维护花费大概在8000万到1亿。为什么这么高呢?因为如果用传统的图形工作站,每个设计师都要配备相关的软件,而且软件都得是正版的,才能保证它的数据跟主机厂的同步。而且不知道这些设计师对这些软件的调用、使用如何,是不是一天8小时、10个小时、12个小时都在用?后来NVIDIA vGPU解决方案得到认可,企业觉得可以替换掉工作站以便数据安全、协同以及更好的整合资源。在实践过程当中,考虑到如何让这些工具软件、设计软件有更好的经济效益,是不是300个人就要买300多个license,他们又使用了额外的一个功能——加了一个必要的应用开发之后,以鼠标停滞一定时间来设计,可以查看设计师到底对这些软件的使用情况如何。统计下来发现设计师每天有效的工作时间大概两三个小时。这意味着在软件的调用上,没有必要为每一个设计师都配备License,成本节省很可观。

马庆胜表示,GPU虚拟化是软件,依托于GPU硬件,由于稳定而强大的底层GPU的硬件,所以NVIDIA的软件在快速迭代下也能保证稳定性。未来,NVIDIA还将继续和VMware密切合作,充分发挥双方的优势共同满足市场的需要。

是个问题,同时现在设计要求协同完成,使用者的服务场所可能会分布在不同的地点。这些问题一直困扰着这些既需要强大的图形处理能力同时又希望能够满足数据安全、协同工作的用户。如果说没有GPU虚拟化,就要在满足设计师工作需要和解决数据安全中做出取舍。有了GPU虚拟化,这些问题就迎刃而解。不仅数据安全、协同可以解决,同时可以使得资源调度做得更好,特别是在图形重负载、设计领域。这些领域中CAD建模、CAE和渲染都都集中在数据中心,使得围绕着数据中心构建的GPU资源可以更好地给用户灵活使用。而且现在,很多企业希望可以介入到人工智能深度学习的领域里,使得产品具备人工智能的属性和特征,但是他又没有能力研发,所以实际上因为在vGPU上支持了人工智能的特性,所以使得很多技术人员可以在这个环境下去学习、了解和尝试,使得在产品设计和研发过程当中能够把人工智能的属性和产品的特性做结合,更好提升自己产品的独特性。

此外,马庆胜也提到,图形的轻负载应用也是较为常见的场景之一。微软推出Windows 10之后,几乎所有的Win10系统所支持的应用都需要得到GPU支持,或者说需要大量的GPU资源才能让运行在Win10上的各种应用效果得到很好的提升。在物理机上,无论是笔记本还是台式机都有GPU的存在,但是如果说是构建在桌面虚拟化或者是桌面云上,没有GPU那自然就体验不好,NVIDIA vGPU解决方案可以解决这个问题。不仅如此,因为提高了密度,因此用户可以更加经济、更加有效的在数据中心部署他的桌面。

除图形的重负载和图形的轻负载应用之外,张洁也补充了单独运算方面的一些应用场景。NVIDIA在2017年的时候发布了vGPU 5.0,这个版本当中,第一次引入了通过vGPU支持计算的功能,从而实现了GPU对计算方面的加速。NVIDIA的GPU两个很重大的应用场景:一个是图形场景,一个是计算场景。我们在一个统一平台里可以实现两种负载,这两种负载又会延伸出来不同的更细节的场景。图形方面,有办公的图形Win10,也有设计用户的重负载的图形。计算方面也会延伸出不同的场景,在vGPU跟人工智能相结合的地方,比较多的是一些教育行业的案例。

从2003年北大第一次开设了人工智能的课程,到2018年6月份,全国已经有50多个大学开设了人工智能课程。但是这个课程开设完了之后,学生需要有一个GPU的环境来实现他的实际操练、实际训练的过程。一般来说,如果没有GPU虚拟化,老师可能需要给每一个学生配一个物理GPU。而有了GPU虚拟化后,可以给每个学生提供一个虚拟的GPU来做实训、培训。从另外一个角度来说,在一定程度上可以降低用户成本。一个典型的场景是:做实训的时候,给学生一个切割的vGPU、一个完整的环境,让他基本了解GPU怎么做加速的一些功能。另外,GPU虚拟化可以让GPU资源灵活调度,因此在非教学时间,GPU的资源可以通过虚拟化释放出来,老师可以把这些GPU资源再聚合起来做一些科研上的工作。

vGPU在过去一年经历了飞速发展,整个产品的迭代很快,能够基础解决的层面都是快速在向前发展。目前在国内,NVIDIA在制造业、重型制造业、车企等领域的客户已经部分开始部署了。举一个案例,为主机场提供配套设备的一家企业。它的规模不算很大,大概有300多个设计师,因为要和主机厂对接,300多个设计师如果用传统的图形工作站,企业每年做软件的正版维护花费大概在8000万到1亿。为什么这么高呢?因为如果用传统的图形工作站,每个设计师都要配备相关的软件,而且软件都得是正版的,才能保证它的数据跟主机厂的同步。而且不知道这些设计师对这些软件的调用、使用如何,是不是一天8小时、10个小时、12个小时都在用?后来NVIDIA vGPU解决方案得到认可,企业觉得可以替换掉工作站以便数据安全、协同以及更好的整合资源。在实践过程当中,考虑到如何让这些工具软件、设计软件有更好的经济效益,是不是300个人就要买300多个license,他们又使用了额外的一个功能——加了一个必要的应用开发之后,以鼠标停滞一定时间来设计,可以查看设计师到底对这些软件的使用情况如何。统计下来发现设计师每天有效的工作时间大概两三个小时。这意味着在软件的调用上,没有必要为每一个设计师都配备License,成本节省很可观。

马庆胜表示,GPU虚拟化是软件,依托于GPU硬件,由于稳定而强大的底层GPU的硬件,所以NVIDIA的软件在快速迭代下也能保证稳定性。未来,NVIDIA还将继续和VMware密切合作,充分发挥双方的优势共同满足市场的需要。’0%U��!�

宁波某中医医院HIS性能测试

  1. 环境
操作系统KVM云主机CPU云主机内存本地磁盘数据库磁盘1T数据库版本集群网络是否物理机
ORACLE LINUX 6.532线程64G200GPCI闪存上PCI闪存上Oracle11.2.0.4rac万兆明和云主机
  • CALIBRATE_IO 测试

SQL> SET SERVEROUTPUT ON

DECLARE

lat  INTEGER;

iops INTEGER;

mbps INTEGER;

BEGIN

   DBMS_RESOURCE_MANAGER.CALIBRATE_IO (6, 10, iops, mbps, lat);

   DBMS_OUTPUT.PUT_LINE (‘max_iops = ‘ || iops);

   DBMS_OUTPUT.PUT_LINE (‘latency  = ‘ || lat);

dbms_output.put_line(‘max_mbps = ‘ || mbps);

end;

SQL>   2    3    4    5    6    7    8    9   10   11  

 12  /

max_iops = 172693

latency  = 1

max_mbps = 2025

PL/SQL 过程已成功完成。

磁盘IOPS 17.2万;磁盘响应时间为1毫秒

评价:一般35-50万存储IOPS 2000-3000响应时间3-5毫秒,为一般存储IOPS性能的55倍,超融合成本远低于传统存储。

3 磁盘RAC同时读写测试

  每节点读写均600M-730M的速度

[oracle@rac1 bin]$ dstat -trd

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:02:25|1113   231 |  10M 9058k

05-03 23:02:26|91.7k 5.00 | 717M   33k

05-03 23:02:27|93.0k 1.00 | 727M  512B

05-03 23:02:28|86.0k 1.00 | 672M  512B

05-03 23:02:29|79.0k 11.0 | 617M  201k

05-03 23:02:30|90.3k 21.0 | 705M  121k

05-03 23:02:31|89.2k 1.00 | 697M  512B

05-03 23:02:32|93.4k 5.00 | 730M   33k

05-03 23:02:33|95.3k 13.0 | 744M  121k

05-03 23:02:34|93.8k 1.00 | 733M  512B

05-03 23:02:35|81.2k 5.00 | 635M   33k

05-03 23:02:36|94.0k 1.00 | 734M  512B

05-03 23:02:37|88.4k 1.00 | 690M  512B

05-03 23:02:38|95.6k 5.00 | 747M   33k

05-03 23:02:39|96.1k 5.00 | 751M  137k

05-03 23:02:40|82.0k 3.00 | 641M   17k

05-03 23:02:41|71.8k 5.00 | 561M   33k

05-03 23:02:42|79.8k 1.00 | 624M  512B

05-03 23:02:43|84.9k 1.00 | 663M  512B

05-03 23:02:44|76.5k 9.00 | 598M  105k

05-03 23:02:45|89.7k  175 | 701M 1633k

05-03 23:02:46|77.6k 1.00 | 606M  512B

05-03 23:02:47|79.5k 5.00 | 621M   33k

05-03 23:02:48|93.1k 1.00 | 727M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:02:49|93.1k 5.00 | 727M   73k

05-03 23:02:50|93.1k 31.0 | 728M  591k

05-03 23:02:51|90.6k 1.00 | 708M  512B

05-03 23:02:52|94.9k 9.00 | 742M 7680B

05-03 23:02:53|89.2k 5.00 | 697M   33k

05-03 23:02:54|80.2k 5.00 | 626M   97k

05-03 23:02:55|83.1k 59.0 | 650M  257k

05-03 23:02:56|75.9k 5.00 | 593M   33k

05-03 23:02:57|72.0k 1.00 | 562M  512B

05-03 23:02:58|81.3k 1.00 | 635M  512B

05-03 23:02:59|86.6k 9.00 | 677M  105k

05-03 23:03:00|88.6k 13.0 | 692M  185k

05-03 23:03:01|79.6k 1.00 | 622M  512B

05-03 23:03:02|95.5k 13.0 | 746M   42k

05-03 23:03:03|89.8k 13.0 | 701M  129k

05-03 23:03:04|88.7k 1.00 | 693M  512B

05-03 23:03:05|88.5k 39.0 | 691M  194k

05-03 23:03:06|89.4k 1.00 | 699M  512B

05-03 23:03:07|94.8k 1.00 | 740M  512B

05-03 23:03:08|91.1k 5.00 | 711M   33k

05-03 23:03:09|92.6k 5.00 | 723M  105k

05-03 23:03:10|91.5k 1.00 | 715M  512B

05-03 23:03:11|93.3k 5.00 | 729M   33k

05-03 23:03:12|92.0k 1.00 | 718M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:03:13|91.6k  121 | 716M 1713k

05-03 23:03:14|87.7k 5.00 | 685M   33k

05-03 23:03:15|85.6k 5.00 | 669M   17k

05-03 23:03:16|97.8k 1.00 | 764M  512B

05-03 23:03:17|93.8k 5.00 | 733M   33k

05-03 23:03:18|98.7k 3.00 | 772M   57k

05-03 23:03:19|91.1k 3.00 | 712M 8704B

05-03 23:03:20|89.2k  165 | 697M 1777k

05-03 23:03:21|90.8k 1.00 | 710M  512B

05-03 23:03:22|92.2k 1.00 | 721M  512B

05-03 23:03:23|95.8k 5.00 | 748M   33k

05-03 23:03:24|93.3k 5.00 | 729M   81k

05-03 23:03:25|80.7k 11.0 | 630M   57k

05-03 23:03:26|93.2k 5.00 | 728M   33k

05-03 23:03:27|85.8k 1.00 | 671M  512B

05-03 23:03:28|92.5k 1.00 | 722M  512B

05-03 23:03:29|97.1k 11.0 | 758M  209k

05-03 23:03:30|96.0k 65.0 | 750M  289k

05-03 23:03:31|92.8k 1.00 | 725M  512B

05-03 23:03:32|86.8k 5.00 | 678M   33k

05-03 23:03:33|85.7k 13.0 | 669M  145k

05-03 23:03:34|86.2k 1.00 | 674M  512B

05-03 23:03:35|86.7k 13.0 | 678M  233k

05-03 23:03:36|92.2k 1.00 | 720M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:03:37|93.8k 1.00 | 733M  512B

05-03 23:03:38|90.2k 5.00 | 705M   33k

05-03 23:03:39|94.4k 5.00 | 737M  169k

05-03 23:03:40|89.8k 17.0 | 702M  113k

05-03 23:03:41|92.5k 4.00 | 723M   32k

05-03 23:03:42|94.1k 1.00 | 735M  512B

05-03 23:03:43|96.0k 1.00 | 750M  512B

05-03 23:03:44|88.6k 9.00 | 692M  105k

05-03 23:03:45|79.0k 1.00 | 617M  512B

05-03 23:03:46|82.4k 1.00 | 644M  512B

05-03 23:03:47|90.9k 5.00 | 710M   33k

05-03 23:03:48|88.9k 1.00 | 695M  512B

05-03 23:03:49|93.8k 5.00 | 733M   73k

05-03 23:03:50|93.3k 5.00 | 729M   33k

05-03 23:03:51|97.8k 1.00 | 764M  512B

05-03 23:03:52|97.2k 1.00 | 760M  512B

05-03 23:03:53|97.4k 5.00 | 761M   33k

05-03 23:03:54|87.8k 5.00 | 686M   49k

05-03 23:03:55|83.3k  197 | 651M 2673k

05-03 23:03:56|87.2k 5.00 | 681M   33k

05-03 23:03:57|84.2k 5.00 | 658M 1536B

05-03 23:03:58|85.5k 1.00 | 668M  512B

05-03 23:03:59|78.3k 9.00 | 612M  145k

05-03 23:04:00|83.7k 5.00 | 654M   33k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:01|90.6k 1.00 | 708M  512B

05-03 23:04:02|84.2k 17.0 | 658M   43k

05-03 23:04:03|92.9k 13.0 | 726M  129k

05-03 23:04:04|94.0k 1.00 | 734M  512B

05-03 23:04:05|91.6k 67.0 | 716M  298k

05-03 23:04:06|80.3k 1.00 | 627M  512B

05-03 23:04:07|87.8k 1.00 | 686M  512B

05-03 23:04:08|98.8k 15.0 | 772M   58k

05-03 23:04:09|93.9k 5.00 | 734M  137k

05-03 23:04:10|88.6k 15.0 | 692M  201k

05-03 23:04:11|94.0k 5.00 | 734M   33k

05-03 23:04:12|94.6k 1.00 | 739M  512B

05-03 23:04:13|92.9k  120 | 726M 1633k

05-03 23:04:14|81.5k 5.00 | 637M   33k

05-03 23:04:15|86.8k 21.0 | 678M  121k

05-03 23:04:16|80.7k 1.00 | 631M  512B

05-03 23:04:17|82.8k 5.00 | 647M   33k

05-03 23:04:18|88.7k 3.00 | 693M   65k

05-03 23:04:19|93.0k 3.00 | 726M 8704B

05-03 23:04:20|82.0k 5.00 | 640M   33k

05-03 23:04:21|88.4k 1.00 | 691M  512B

05-03 23:04:22|90.2k 1.00 | 705M  512B

05-03 23:04:23|92.5k 5.00 | 723M   33k

05-03 23:04:24|88.2k 5.00 | 689M   57k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:25|87.2k 1.00 | 682M  512B

05-03 23:04:26|88.5k 5.00 | 691M   33k

05-03 23:04:27|83.9k 1.00 | 656M  512B

05-03 23:04:28|91.2k 1.00 | 712M  512B

05-03 23:04:29|91.1k 11.0 | 712M  169k

05-03 23:04:30|92.4k  167 | 722M 1601k

05-03 23:04:31|90.2k 1.00 | 705M  512B

05-03 23:04:32|89.4k 1.00 | 699M  512B

05-03 23:04:33|97.3k 17.0 | 760M  169k

05-03 23:04:34|91.5k 1.00 | 715M  512B

05-03 23:04:35|83.6k 3.00 | 653M 8704B

05-03 23:04:36|86.3k 5.00 | 675M   33k

05-03 23:04:37|94.1k 1.00 | 735M  512B

05-03 23:04:38|94.0k 1.00 | 735M  512B

05-03 23:04:39|90.5k 9.00 | 707M  169k

05-03 23:04:40|90.2k 65.0 | 705M  281k

05-03 23:04:41|92.7k 1.00 | 724M  512B

05-03 23:04:42|92.2k 5.00 | 721M   33k

05-03 23:04:43|94.1k 1.00 | 735M  512B

05-03 23:04:44|89.0k 5.00 | 696M   49k

05-03 23:04:45|84.2k 11.0 | 658M  217k

05-03 23:04:46|81.7k 1.00 | 638M  512B

05-03 23:04:47|90.6k 1.00 | 708M  512B

05-03 23:04:48|94.4k 5.00 | 738M   33k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:49|97.3k 5.00 | 760M   89k

05-03 23:04:50|90.4k 21.0 | 706M  137k

05-03 23:04:51|91.0k 5.00 | 712M   33k

05-03 23:04:52|93.9k 1.00 | 733M  512B

05-03 23:04:53|92.1k 1.00 | 719M  512B

05-03 23:04:54|93.4k 9.00 | 729M  113k

05-03 23:04:55|83.2k 1.00 | 650M  512B

05-03 23:04:56|83.6k 1.00 | 653M  512B

05-03 23:04:57|95.3k 5.00 | 745M   33k

05-03 23:04:58|91.7k 1.00 | 716M  512B

05-03 23:04:59|93.2k 5.00 | 728M   65k

05-03 23:05:00|97.2k 7.00 | 760M   41k

05-03 23:05:01|94.1k 1.00 | 735M  512B

05-03 23:05:02|96.5k 13.0 | 754M   11k

05-03 23:05:03|90.7k 17.0 | 708M  129k

05-03 23:05:04|83.7k 1.00 | 654M  512B

05-03 23:05:05|86.6k  139 | 677M 1473k

05-03 23:05:06|91.2k 5.00 | 713M   33k

05-03 23:05:07|84.2k 1.00 | 658M  512B

05-03 23:05:08|87.1k 45.0 | 681M  172k

05-03 23:05:09|95.3k 9.00 | 745M  137k

05-03 23:05:10|96.9k 9.00 | 758M   41k

05-03 23:05:11|90.4k 1.00 | 706M  512B

05-03 23:05:12|94.3k 5.00 | 736M   33k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:05:13|96.4k  135 | 753M 1986k

05-03 23:05:14|89.9k 5.00 | 703M 1536B

05-03 23:05:15|83.7k 81.0 | 654M  652k

05-03 23:05:16|88.9k 9.00 | 695M   14k

05-03 23:05:17|76.6k 59.0 | 598M  577k

05-03 23:05:18|92.1k  177 | 720M 2753k

05-03 23:05:19|91.8k 3.00 | 717M 8704B

05-03 23:05:20|92.2k 69.0 | 720M  809k

05-03 23:05:21|91.6k 9.00 | 716M   86k

05-03 23:05:22|93.2k 1.00 | 729M  512B

05-03 23:05:23|96.8k  168 | 756M 1281k

05-03 23:05:24|88.1k 51.0 | 688M  795k

05-03 23:05:25|87.9k 15.0 | 687M   97k

05-03 23:05:26|91.3k 3.00 | 714M 8704B

05-03 23:05:27|95.1k 5.00 | 743M   33k

05-03 23:05:28|95.8k 1.00 | 749M  512B

05-03 23:05:29|92.5k 7.00 | 722M  145k

05-03 23:05:30|91.0k 15.0 | 711M   74k

05-03 23:05:31|95.9k 1.00 | 749M  512B

05-03 23:05:32|98.2k 1.00 | 767M  512B

05-03 23:05:33|96.9k 17.0 | 757M  209k

05-03 23:05:34|87.9k 1.00 | 686M  512B

05-03 23:05:35|84.0k 1.00 | 656M  512B

05-03 23:05:36|90.3k 5.00 | 705M   33k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:05:37|93.7k 1.00 | 732M  512B

05-03 23:05:38|81.1k 1.00 | 634M  512B

05-03 23:05:39|94.9k 9.00 | 741M  153k

05-03 23:05:40|95.0k  165 | 742M 1681k

05-03 23:05:41|91.8k 1.00 | 717M  512B

05-03 23:05:42|85.0k 5.00 | 664M   33k

05-03 23:05:43|93.9k 1.00 | 733M  512B

[oracle@rac2 rman]$ dstat -trd

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:01:38| 729  21.9 |  10M 1804k

05-03 23:01:39|87.3k 5.00 | 682M 8704B

05-03 23:01:40|85.3k 5.00 | 666M   49k

05-03 23:01:41|83.8k 5.00 | 655M   33k

05-03 23:01:42|82.1k 5.00 | 642M 8704B

05-03 23:01:43|88.3k 1.00 | 690M  512B

05-03 23:01:44|83.7k 5.00 | 654M   33k

05-03 23:01:45|83.3k 5.00 | 651M 8704B

05-03 23:01:46|85.1k 5.00 | 665M   81k

05-03 23:01:47|85.3k 5.00 | 667M   33k

05-03 23:01:48|84.7k 5.00 | 662M 8704B

05-03 23:01:49|83.1k 1.00 | 649M  512B

05-03 23:01:50|84.5k 5.00 | 660M   33k

05-03 23:01:51|77.7k  133 | 606M 1825k

05-03 23:01:52|82.3k 1.00 | 643M  512B

05-03 23:01:53|84.6k 4.00 | 661M   17k

05-03 23:01:54|85.1k 6.00 | 665M   25k

05-03 23:01:55|78.7k 1.00 | 614M  512B

05-03 23:01:56|77.5k 3.00 | 606M   17k

05-03 23:01:57|86.7k 13.0 | 677M  185k

05-03 23:01:58|85.8k 1.00 | 670M  512B

05-03 23:01:59|90.4k 1.00 | 707M  512B

05-03 23:02:00|88.0k 9.00 | 687M   41k

05-03 23:02:01|83.3k  209 | 651M 1937k

05-03 23:02:02|85.6k 5.00 | 669M   97k

05-03 23:02:03|83.9k 9.00 | 655M   41k

05-03 23:02:04|78.1k 13.0 | 610M  105k

05-03 23:02:05|84.2k 1.00 | 658M  512B

^C[oracle@rac2 rman]$ dstat -trd

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:02:32|1070  21.9 |  13M 1797k

05-03 23:02:33|92.5k 5.00 | 723M   33k

05-03 23:02:34|85.2k 5.00 | 666M 8704B

05-03 23:02:35|81.2k 15.0 | 635M  185k

05-03 23:02:36|81.3k  232 | 635M 2113k

05-03 23:02:37|90.4k 10.0 | 706M   57k

05-03 23:02:38|88.8k 1.00 | 694M  512B

05-03 23:02:39|87.3k 1.00 | 682M  512B

05-03 23:02:40|88.1k 13.0 | 688M   97k

05-03 23:02:41|80.9k 3.00 | 632M   33k

05-03 23:02:42|87.9k 1.00 | 687M  512B

05-03 23:02:43|86.8k 9.00 | 678M   41k

05-03 23:02:44|80.4k 1.00 | 628M  512B

05-03 23:02:45|88.4k 1.00 | 691M  512B

05-03 23:02:46|76.5k 15.0 | 598M  137k

05-03 23:02:47|79.7k 1.00 | 622M  512B

05-03 23:02:48|80.3k 1.00 | 627M  512B

05-03 23:02:49|86.5k 9.00 | 676M   41k

05-03 23:02:50|88.8k 1.00 | 694M  512B

05-03 23:02:51|91.3k 11.0 | 713M  145k

05-03 23:02:52|86.8k  123 | 678M 1857k

05-03 23:02:53|91.3k 17.0 | 713M  518k

05-03 23:02:54|90.4k 1.00 | 706M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:02:55|67.6k 9.00 | 528M   41k

05-03 23:02:56|80.0k 3.00 | 625M 8704B

05-03 23:02:57|70.3k 5.00 | 549M   81k

05-03 23:02:58|82.3k 9.00 | 643M   41k

05-03 23:02:59|89.4k 1.00 | 699M  512B

05-03 23:03:00|76.1k 1.00 | 594M  512B

05-03 23:03:01|78.8k 19.0 | 616M  105k

05-03 23:03:02|90.1k 5.00 | 704M  153k

05-03 23:03:03|89.9k 1.00 | 702M  512B

05-03 23:03:04|78.1k 9.00 | 610M   41k

05-03 23:03:05|78.2k 13.0 | 611M   97k

05-03 23:03:06|86.1k 5.00 | 672M   17k

05-03 23:03:07|91.4k 25.0 | 714M  169k

05-03 23:03:08|90.4k 1.00 | 706M  512B

05-03 23:03:09|85.3k 1.00 | 666M  512B

05-03 23:03:10|87.0k 9.00 | 680M   41k

05-03 23:03:11|87.7k  227 | 685M 2321k

05-03 23:03:12|89.1k 1.00 | 696M  512B

05-03 23:03:13|86.8k 9.00 | 678M   41k

05-03 23:03:14|86.5k 1.00 | 676M  512B

05-03 23:03:15|87.0k 1.00 | 680M  512B

05-03 23:03:16|89.9k 19.0 | 702M  153k

05-03 23:03:17|87.2k 1.00 | 681M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:03:18|86.1k 1.00 | 672M  512B

05-03 23:03:19|86.2k 9.00 | 673M   41k

05-03 23:03:20|73.4k 1.00 | 574M  512B

05-03 23:03:21|75.2k 9.00 | 588M   89k

05-03 23:03:22|91.1k 8.00 | 712M   40k

05-03 23:03:23|91.0k 1.00 | 711M  512B

05-03 23:03:24|86.9k 1.00 | 679M  512B

05-03 23:03:25|76.5k 9.00 | 598M   41k

05-03 23:03:26|78.1k 13.0 | 610M  153k

05-03 23:03:27|80.4k 1.00 | 628M  512B

05-03 23:03:28|86.9k 9.00 | 679M   41k

05-03 23:03:29|80.5k 1.00 | 629M  512B

05-03 23:03:30|87.3k 1.00 | 682M  512B

05-03 23:03:31|88.7k 13.0 | 693M   65k

05-03 23:03:32|82.5k 5.00 | 644M  153k

05-03 23:03:33|76.9k 1.00 | 601M  512B

05-03 23:03:34|77.0k 9.00 | 602M   41k

05-03 23:03:35|88.4k 15.0 | 690M  185k

05-03 23:03:36|82.8k 9.00 | 647M   49k

05-03 23:03:37|87.6k 25.0 | 684M  169k

05-03 23:03:38|88.5k 1.00 | 692M  512B

05-03 23:03:39|89.8k 1.00 | 702M  512B

05-03 23:03:40|80.4k 9.00 | 628M   41k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:03:41|85.9k 5.00 | 671M   81k

05-03 23:03:42|85.6k 1.00 | 669M  512B

05-03 23:03:43|87.5k 9.00 | 684M   41k

05-03 23:03:44|84.3k 1.00 | 658M  512B

05-03 23:03:45|86.9k 1.00 | 679M  512B

05-03 23:03:46|80.4k  249 | 628M 2905k

05-03 23:03:47|80.1k 1.00 | 626M  512B

05-03 23:03:48|84.8k 1.00 | 663M  512B

05-03 23:03:49|82.9k 9.00 | 648M   41k

05-03 23:03:50|85.7k 1.00 | 670M  512B

05-03 23:03:51|84.5k 7.00 | 660M  113k

05-03 23:03:52|85.1k  131 | 665M 1769k

05-03 23:03:53|88.6k 1.00 | 692M  512B

05-03 23:03:54|78.2k 1.00 | 611M  512B

05-03 23:03:55|74.6k 9.00 | 583M   41k

05-03 23:03:56|75.3k 3.00 | 588M   17k

05-03 23:03:57|79.1k 5.00 | 618M   97k

05-03 23:03:58|79.7k 9.00 | 622M   41k

05-03 23:03:59|77.6k 1.00 | 606M  512B

05-03 23:04:00|83.4k 1.00 | 652M  512B

05-03 23:04:01|84.0k 15.0 | 656M   65k

05-03 23:04:02|87.1k 5.00 | 680M  113k

05-03 23:04:03|73.9k 1.00 | 577M  512B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:04|77.4k 9.00 | 605M   41k

05-03 23:04:05|81.7k 13.0 | 639M   89k

05-03 23:04:06|78.2k 11.0 | 611M   41k

05-03 23:04:07|85.2k 25.0 | 665M  169k

05-03 23:04:08|86.6k 1.00 | 677M  512B

05-03 23:04:09|84.4k 1.00 | 660M  512B

05-03 23:04:10|83.8k 9.00 | 655M   41k

05-03 23:04:11|82.1k 15.0 | 641M  137k

05-03 23:04:12|86.2k 1.00 | 673M  512B

05-03 23:04:13|86.7k 9.00 | 677M   41k

05-03 23:04:14|86.1k 1.00 | 672M  512B

05-03 23:04:15|80.5k 1.00 | 629M  512B

05-03 23:04:16|85.7k 19.0 | 669M  153k

05-03 23:04:17|85.5k 1.00 | 668M  512B

05-03 23:04:18|76.0k 1.00 | 594M  512B

05-03 23:04:19|78.9k 9.00 | 616M   41k

05-03 23:04:20|81.7k 1.00 | 639M  512B

05-03 23:04:21|83.1k  215 | 649M 2169k

05-03 23:04:22|86.5k 9.00 | 676M   41k

05-03 23:04:23|79.0k 1.00 | 617M  512B

05-03 23:04:24|84.2k 1.00 | 658M  512B

05-03 23:04:25|80.0k 9.00 | 625M   41k

05-03 23:04:26|83.1k 11.0 | 649M  201k

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:27|83.0k 1.00 | 649M  512B

05-03 23:04:28|89.4k 9.00 | 699M   41k

05-03 23:04:29|89.8k 1.00 | 701M  512B

05-03 23:04:30|85.8k 1.00 | 671M  512B

05-03 23:04:31|88.6k 13.0 | 692M  169k

05-03 23:04:32|85.5k 1.00 | 668M  512B

05-03 23:04:33|86.0k 1.00 | 672M  512B

05-03 23:04:34|83.5k 9.00 | 653M   41k

05-03 23:04:35|83.9k 15.0 | 656M  201k

05-03 23:04:36|89.4k 1.00 | 699M  512B

05-03 23:04:37|83.6k 25.0 | 653M  169k

05-03 23:04:38|88.2k 1.00 | 689M  512B

05-03 23:04:39|82.1k 1.00 | 641M  512B

05-03 23:04:40|84.6k 9.00 | 661M   41k

05-03 23:04:41|86.5k 11.0 | 675M   97k

05-03 23:04:42|91.5k 1.00 | 715M  512B

05-03 23:04:43|87.7k 9.00 | 685M   41k

05-03 23:04:44|89.7k 1.00 | 701M  512B

05-03 23:04:45|81.3k 1.00 | 635M  512B

05-03 23:04:46|73.4k 19.0 | 573M  177k

05-03 23:04:47|85.5k 5.00 | 668M   33k

05-03 23:04:48|83.7k 1.00 | 654M  512B

05-03 23:04:49|85.3k 5.00 | 666M 8704B

—-system—- –io/total- -dsk/total-

  date/time   | read  writ| read  writ

05-03 23:04:50|82.8k 5.00 | 647M   33k

05-03 23:04:51|84.9k 7.00 | 663M  169k

05-03 23:04:52|88.2k  125 | 689M 1729k

05-03 23:04:53|85.0k 5.00 | 664M   33k

05-03 23:04:54|85.8k 1.00 | 671M  512B

05-03 23:04:55|81.3k 5.00 | 636M 8704B

05-03 23:04:56|78.9k  225 | 617M 2081k

05-03 23:04:57|85.3k 5.00 | 666M   81k

05-03 23:04:58|88.4k 5.00 | 691M 8704B

05-03 23:04:59|88.1k 5.00 | 689M   33k

05-03 23:05:00|87.9k 1.00 | 687M  512B

05-03 23:05:01|87.1k 9.00 | 680M   49k

05-03 23:05:02|86.9k 9.00 | 679M  185k

05-03 23:05:03|85.0k 1.00 | 664M  512B

05-03 23:05:04|79.2k 5.00 | 619M 8704B

05-03 23:05:05|81.8k 17.0 | 639M  121k

05-03 23:05:06|85.2k 7.00 | 665M   25k

05-03 23:05:07|88.5k 5.00 | 691M 8704B

05-03 23:05:08|90.7k 21.0 | 708M  161k

05-03 23:05:09|82.7k 1.00 | 646M  512B

05-03 23:05:10|89.8k 5.00 | 702M 8704B

05-03 23:05:11|87.2k 19.0 | 682M   91k

05-03 23:05:12|88.9k 1.00 | 695M  512B

05-03 23:05:13|85.2k 5.00 | 666M 8704B