第1章 策略、方法和方法論 1
1.1 性能問題的現狀 1
1.2 性能分析的兩種方法:自頂嚮下和自底嚮上 4
1.2.1 自頂嚮下 4
1.2.2 自底嚮上 5
1.3 選擇正確的平颱並評估係統性能 5
1.3.1 選擇正確的CPU架構 6
1.3.2 評估係統性能 7
1.4 參考資料 7
第2章 操作係統性能監控 8
2.1 定義 8
2.2 CPU使用率 9
2.2.1 監控CPU使用率:Windows 9
2.2.2 監控CPU使用率:Windows typeperf 12
2.2.3 監控CPU使用率:Linux 13
2.2.4 監控CPU使用率:Solaris 14
2.2.5 命令行監控CPU使用率:Linux和Solaris 16
2.3 CPU調度程序運行隊列 19
2.3.1 監控CPU調度程序運行隊列:Windows 19
2.3.2 監控CPU調度程序運行隊列:Solaris 21
2.3.3 監控CPU調度程序運行隊列:Linux 21
2.4 內存使用率 22
2.4.1 監控內存利用率:Windows 22
2.4.2 監控內存使用率:Solaris 23
2.4.3 監控內存使用率:Linux 24
2.4.4 監控鎖競爭:Solaris 25
2.4.5 監控鎖競爭:Linux 26
2.4.6 監控鎖競爭:Windows 27
2.4.7 隔離競爭鎖 27
2.4.8 監控搶占式上下文切換 27
2.4.9 監控綫程遷移 28
2.5 網絡I/O使用率 28
2.5.1 監控網絡I/O使用率:Solaris 29
2.5.2 監控網絡I/O使用率:Linux 30
2.5.3 監控網絡I/O使用率:Windows 30
2.5.4 應用性能改進的考慮 31
2.6 磁盤I/O使用率 31
2.7 其他命令行工具 34
2.8 監控CPU使用率:SPARC T係列係統 35
2.9 參考資料 36
第3章 JVM概覽 38
3.1 HotSpot VM的基本架構 38
3.2 HotSpot VM運行時 40
3.2.1 命令行選項 40
3.2.2 VM生命周期 41
3.2.3 VM類加載 44
3.2.4 字節碼驗證 46
3.2.5 類數據共享 47
3.2.6 解釋器 48
3.2.7 異常處理 49
3.2.8 同步 50
3.2.9 綫程管理 51
3.2.10 C++堆管理 53
3.2.11 Java本地接口 54
3.2.12 VM緻命錯誤處理 55
3.3 HotSpot VM垃圾收集器 56
3.3.1 分代垃圾收集 56
3.3.2 新生代 58
3.3.3 快速內存分配 60
3.3.4 垃圾收集器 60
3.3.5 Serial收集器 61
3.3.6 Parallel收集器:吞吐量為先! 62
3.3.7 Mostly-Concurrent收集器:低延遲為先! 62
3.3.8 Garbage-First收集器:CMS替代者 64
3.3.9 垃圾收集器比較 64
3.3.10 應用程序對垃圾收集器的影響 65
3.3.11 簡單迴顧收集器曆史 65
3.4 HotSpot VM JIT編譯器 65
3.4.1 類型繼承關係分析 67
3.4.2 編譯策略 67
3.4.3 逆優化 68
3.4.4 Client JIT編譯器概覽 69
3.4.5 Server JIT編譯器概覽 69
3.4.6 靜態單賦值——程序依賴圖 69
3.4.7 未來增強展望 71
3.5 HotSpot VM自適應調優 71
3.5.1 Java 1.4.2的默認值 71
3.5.2 Java 5自動優化的默認值 71
3.5.3 Java 6 Update 18更新後的默認優化值 73
3.5.4 自適應Java堆調整 74
3.5.5 超越自動優化 75
3.6 參考資料 75
第4章 JVM性能監控 77
4.1 定義 77
4.2 垃圾收集 78
4.2.1 重要的垃圾收集數據 78
4.2.2 垃圾收集報告 78
4.2.3 垃圾收集數據的離綫分析 86
4.2.4 圖形化工具 89
4.3 JIT編譯器 103
4.4 類加載 104
4.5 Java應用監控 106
4.6 參考資料 109
第5章 Java應用性能分析 110
5.1 術語 111
5.1.1 通用性能分析術語 111
5.1.2 Oracle Solaris Studio Performance Analyzer術語 112
5.1.3 NetBeans Profiler術語 112
5.2 Oracle Solaris Studio Performance Analyzer 112
5.2.1 支持平颱 113
5.2.2 下載/安裝Oracle Solaris Studio Performance Analyzer 114
5.2.3 使用Oracle Solaris Studio Performance Analyzer 抓取性能數據 114
5.2.4 查看性能數據 118
5.2.5 數據錶示 125
5.2.6 過濾性能數據 128
5.2.7 命令行工具er_print 129
5.3 NetBeans Profiler 135
5.3.1 支持平颱 136
5.3.2 下載安裝NetBeans Profiler 136
5.3.3 開始方法分析會話 137
5.3.4 Controls子麵闆 143
5.3.5 Status子麵闆 143
5.3.6 Profiling Results子麵闆 143
5.3.7 Saved Snapshots子麵闆 144
5.3.8 View子麵闆 144
5.3.9 Basic Telemetry子麵闆 144
5.3.10 查看動態結果 145
5.3.11 對結果進行快照 145
5.3.12 啓動內存分析會話 146
5.3.13 查看實時結果 148
5.3.14 對結果進行快照 150
5.3.15 定位內存泄漏 150
5.3.16 分析堆轉儲 151
5.4 參考資料 152
第6章 Java應用性能分析技巧 153
6.1 性能優化機會 153
6.2 係統或內核態CPU使用 154
6.3 鎖競爭 161
6.4 Volatile的使用 171
6.5 調整數據結構的大小 172
6.5.1 StringBuilder或StringBuffer大小的調整 172
6.5.2 Java Collection類大小調整 175
6.6 增加並行性 179
6.7 過高的CPU使用率 181
6.8 其他有用的分析提示 182
6.9 參考資料 184
第7章 JVM性能調優入門 185
7.1 方法 185
7.1.1 假設條件 187
7.1.2 測試基礎設施需求 188
7.2 應用程序的係統需求 188
7.2.1 可用性 188
7.2.2 可管理性 188
7.2.3 吞吐量 189
7.2.4 延遲及響應性 189
7.2.5 內存占用 189
7.2.6 啓動時間 189
7.3 對係統需求分級 190
7.4 選擇JVM部署模式 190
7.4.1 單JVM部署模式 190
7.4.2 多JVM部署模式 190
7.4.3 通用建議 191
7.5 選擇JVM運行模式 191
7.5.1 Client模式或Server模式 191
7.5.2 32位/64位 JVM 192
7.5.3 垃圾收集器 192
7.6 垃圾收集調優基礎 193
7.6.1 性能屬性 193
7.6.2 原則 193
7.6.3 命令行選項及GC日誌 194
7.7 確定內存占用 197
7.7.1 約束 197
7.7.2 HotSpot VM堆的布局 197
7.7.3 堆大小調優著眼點 200
7.7.4 計算活躍數據大小 201
7.7.5 初始堆空間大小配置 202
7.7.6 其他考量因素 203
7.8 調優延遲/響應性 204
7.8.1 輸入 205
7.8.2 優化新生代的大小 205
7.8.3 優化老年代的大小 207
7.8.4 為CMS調優延遲 210
7.8.5 Survivor空間介紹 212
7.8.6 解析晉升閾值 214
7.8.7 監控晉升閾值 215
7.8.8 調整Survivor空間的容量 216
7.8.9 顯式的垃圾收集 222
7.8.10 並發永久代垃圾收集 223
7.8.11 調優CMS停頓時間 224
7.8.12 下一步 225
7.9 應用程序吞吐量調優 225
7.9.1 CMS吞吐量調優 225
7.9.2 Throughput收集器調優 226
7.9.3 Survivor空間調優 228
7.9.4 調優並行垃圾收集綫程 231
7.9.5 在NUMA係統上部署 231
7.9.6 下一步 232
7.10 極端示例 232
7.11 其他性能命令行選項 232
7.11.1 實驗性(最近最大)優化 232
7.11.2 逃逸分析 233
7.11.3 偏嚮鎖 233
7.11.4 大頁麵支持 234
7.12 參考資料 236
第8章 Java應用的基準測試 237
8.1 基準測試所麵臨的挑戰 237
8.1.1 基準測試的預熱階段 238
8.1.2 垃圾收集 240
8.1.3 使用Java Time接口 240
8.1.4 剔除無效代碼 241
8.1.5 內聯 247
8.1.6 逆優化 251
8.1.7 創建微基準測試的注意事項 256
8.2 實驗設計 257
8.3 使用統計方法 258
8.3.1 計算均值 258
8.3.2 計算標準差 258
8.3.3 計算置信區間 259
8.3.4 使用假設測試 260
8.3.5 使用統計方法的注意事項 262
8.4 參考文獻 263
8.5 參考資料 263
第9章 多層應用的基準測試 264
9.1 基準測試難題 264
9.2 企業級應用基準測試的考量 266
9.2.1 定義被測係統 266
9.2.2 製定微基準測試 266
9.2.3 定義用戶交互模型 267
9.2.4 定義性能指標 270
9.2.5 擴展基準測試 273
9.2.6 用利特爾法則驗證 274
9.2.7 思考時間 275
9.2.8 擴展性分析 278
9.2.9 運行基準測試 278
9.3 應用服務器監控 281
9.3.1 GlassFish監控 281
9.3.2 監控子係統 286
9.3.3 Solaris 287
9.3.4 Linux 288
9.3.5 Windows 288
9.3.6 外部係統的性能 289
9.3.7 磁盤I/O 292
9.3.8 監控和調優資源池 293
9.4 企業級應用性能分析 294
9.5 參考資料 295
第10章 Web應用的性能調優 297
10.1 Web應用的基準測試 298
10.2 Web容器的組件 298
10.2.1 HTTP連接器 299
10.2.2 Servlet引擎 300
10.3 Web容器的監控和性能調優 300
10.3.1 容器的開發和生産模式 300
10.3.2 安全管理器 301
10.3.3 JVM調優 301
10.3.4 HTTP服務和Web容器 303
10.3.5 HTTP監聽器 303
10.4 最佳實踐 315
10.4.1 Servlet和JSP最佳實踐 315
10.4.2 內容緩存 324
10.4.3 會話持久化 328
10.4.4 HTTP服務器文件緩存 329
10.5 參考資料 333
第11章 Web Service的性能 334
11.1 XML的性能 334
11.1.1 XML處理的生命周期 335
11.1.2 解析/解編組 335
11.1.3 訪問 338
11.1.4 修改 338
11.1.5 序列化/編組 339
11.2 驗證 339
11.3 解析外部實體 341
11.4 XML文檔的局部處理 343
11.5 選擇閤適的API 346
11.6 JAX-WS參考實現棧 349
11.7 Web Service基準測試 350
11.8 影響Web Service性能的因素 353
11.8.1 消息大小的影響 353
11.8.2 不同Schema類型的性能特徵 355
11.8.3 終端服務器的實現 358
11.8.4 處理程序的性能 359
11.9 最佳性能實踐 361
11.9.1 二進製負載的處理 361
11.9.2 處理XML文檔 365
11.9.3 使用MTOM發送XML文檔 365
11.9.4 使用Provider接口 368
11.9.5 快速信息集 370
11.9.6 HTTP壓縮 372
11.9.7 Web Service客戶端的性能 373
11.10 參考資料 374
第12章 Java持久化及Enterprise Java Bean的性能 375
12.1 EJB編程模型 376
12.2 Java持久化API及其參考實現 376
12.3 監控及調優EJB容器 379
12.3.1 綫程池 380
12.3.2 Bean池和緩存 382
12.3.3 EclipseLink會話緩存 385
12.4 事務隔離級 386
12.5 Enterprise Java Bean的最佳實踐 387
12.5.1 簡要說明使用的EJB基準測試 387
12.5.2 EJB 2.1 388
12.5.3 EJB 3.0 400
12.6 Java持久化最佳實踐 403
12.6.1 JPA查詢語言中的查詢 403
12.6.2 查詢結果緩存 405
12.6.3 FetchType 406
12.6.4 連接池 408
12.6.5 批量更新 409
12.6.6 選擇正確的數據庫鎖策略 411
12.6.7 不帶事務的讀取 411
12.6.8 繼承 411
12.7 參考資料 412
附錄A 重要的HotSpot VM選項 413
附錄B 性能分析技巧示例源代碼 429
B.1 鎖競爭實現1 429
B.2 鎖競爭實現2 439
B.3 鎖競爭實現3 449
B.4 鎖競爭實現4 459
B.5 鎖競爭實現5 469
B.6 調整容量變化1 481
B.7 調整容量變化2 492
B.8 增加並發性的單綫程實現 504
B.9 增加並發性的多綫程實現 514
· · · · · · (
收起)