多数工具采集所有基础数据:CPU、网络、磁盘(空间使用率和I/O使用率)、内存,等等。这些数据应被视为深刻理解基础架构运行的基础。我以为,关于服务器,若是你所知道的就只是这些丈量数据的话,可以以为你就是个瞎子。一个多小小日时的时间里系统CPU的使用率到达12,而应用程序的行为到底是怎么样的,这个数字并不能告诉你若干器械逐一而应用程序的行为才是要点。系统资源是若何实际使用的,应用和服务层面的丈量数据会给出相关的信息。
若是不能用同样的工具来采集这些数据的话,也要只管用相近的工具,这会有很大的利益。有了这些数据,就可以回覆下面的问题:
● 平均的Web请求的CPU时间(用户态和系统态)是若干
● 和纯粹应用程序的执行时间比较起来,用于数据库查询的最慢的API挪用破费时间的百分比是若干
● 对文件系统缓存(而非程序内部的缓存)的依赖有多大响应时间随请求率的升沉转变,能说明有共享资源吗?
● 用于Web页面、AJA、RSS、API方式的前端请求各占若干百分比以文件巨细来计,最大的页面响应是若干?
● 响应时间随响应巨细按比例转变吗
● 最慢的数据库查询是什么挪用频度是若干
● 用得最多的数据库查询是什么挪用频度是若干
回覆这些问题,能辅助你找出哪些网站建设优化值得做、排查问题时从那里入手、什么样的资源使用对你而言是ldquo;正常rdquo;的,从而可以在监控系统上设置合适的报警阈值。
(责任编辑:网络)

评论列表