前言
關于Nginx,你了解多少~
一、Nginx 簡介
Nginx("engine x") 是一個高性能的 HTTP 和反向代理服務器,特點是占有內存少,并發能力強,事實上 nginx 的并發能力確實在同類型的網頁服務器中表現較好,中國大陸使用 nginx 網站用戶有:百度、京東、新浪、網易、騰訊、 淘寶等。
1.1 WEB 服務器
Nginx 可以作為靜態頁面的 web 服務器,同時還支持 CGI 協議的動態語言,比如 perl、php
等。但是不支持 JAVA。Java 程序只能通過與 Tomcat 配合完成。Nginx 專為性能優化而開發,性能是其最重要的考量,實現上非常注重效率 ,能經受高負載的考驗,有報告表明能支持高達 50000個并發連接數。
1.2 反向代理
1.正向代理,代理客戶端,客戶端需要配置代理
2.反向代理,代理服務端,客戶端無感知
1.3 負載均衡
Nginx 的異步框架可以處理很大的并發請求,把這些并發請求 hold 住之后就可以分發給后臺服務端(backend servers,也叫做服務池, 后面簡稱 backend)來做復雜的計算、處理和響應,這種模式的好處是相當多的:隱藏業務主機更安全,節約了公網 IP 地址,并且在業務量增加的時候可以方便地擴容后臺服務器。
這時候集群的概念產生了,我們增加服務器的數量,然后將請求分發到各個服務器上,將原先請求集中到單個服務器上的情況改為將請求分發到多個服務器上,將負載分發到不同的服器,也就是我們所說的負載均衡。
1.4 動靜分離
為了加快網站的解析速度,可以把動態頁面和靜態頁面由不同的服務器來解析,加快解析速度。降低原來單個服務器的壓力。
Nginx部署靜態資源,tomcat部署動態資源
二、安裝啟動
Nginx官網
2.1 相關安裝包
? pcre-8.37.tar.gz ? openssl-1.0.1t.tar.gz ? zlib-1.2.8.tar.gz ? nginx-1.11.1.tar.gz
2.2 安裝流程
2.1.1.安裝 pcre 解壓縮 pcre-xx.tar.gz 包
進入解壓縮目錄,執行./configure
如果提示,需要提前安裝 gcc++,進入安裝光盤目錄的軟件包(/media/centosXX/Package)執行
rpm -ivh libstdc+±devel-4.4.7-17.el6.x86_64.rpm
rpm -ivh gcc-c+±4.4.7-17.el6.x86_64.rpm
./configure 完成后,回到 pcre 目錄下執行 make,再執行 make install
2.2.2.安裝 openssl
解壓縮 openssl-xx.tar.gz 包。
進入解壓縮目錄,執行./config
make && make install
2.2.3.安裝 zlib 解壓縮 zlib-xx.tar.gz 包。
進入解壓縮目錄,執行./configure。
make && make install
2.2.4.安裝 nginx
解壓縮 nginx-xx.tar.gz 包。
進入解壓縮目錄,執行./configure。
make && make install
查看開放的端口號
firewall-cmd --list-all
設置開放的端口號
firewall-cmd --add-service=http –permanent
sudo firewall-cmd --add-port=80/tcp --permanent
重啟防火墻
firewall-cmd –reload
2.3 Nginx 啟動
命令
啟動命令:在/usr/local/nginx/sbin 目錄下執行 ./nginx
關閉命令: 在/usr/local/nginx/sbin 目錄下執行 ./nginx -s stop
重新加載命令: 在/usr/local/nginx/sbin 目錄下執行 ./nginx -s reload·
設置 nginx 為自啟動服務
修改 linux 啟動腳本/etc/rc.d/rc
加入
:/usr/local/nginx/sbin/nginx
三、Nginx核心配置文件
nginx 安裝目錄下,其默認的配置文件都放在conf 目錄下,而主配置文件nginx.conf 也在其中,后續對 nginx 的使用基本上都是對此配置文件進行相應的修改。
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type Application/octet-stream;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
}
}
根據上述文件,我們可以很明顯的將 nginx.conf 配置文件分為三部分
第一部分:全局塊
從配置文件開始到 events 塊之間的內容,主要會設置一些影響 nginx 服務器整體運行的配置指令,主要包括配置運行 Nginx 服務器的用戶(組)、允許生成的 worker process 數,進程 PID 存放路徑、日志存放路徑和類型以及配置文件的引入等。
比如上面第一行配置的:worker_processes 1;
這是 Nginx 服務器并發處理服務的關鍵配置,worker_processes 值越大,可以支持的并發處理量也越多,但是會受到硬件、軟件等設備的制約。
第二部分:events 塊
events {
worker_connections 1024;
}
events 塊涉及的指令主要影響 Nginx 服務器與用戶的網絡連接,常用的設置包括是否開啟對多 work process 下的網絡連接進行序列化,是否允許同時接收多個網絡連接,選取哪種事件驅動模型來處理連接請求,每個 word process 可以同時支持的最大連接數等。
上述例子就表示每個 work process 支持的最大連接數為 1024.
這部分的配置對 Nginx 的性能影響較大,在實際中應該靈活配置。
第三部分:http 塊
http {
include mime.types;
default_type application/octet-stream;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
}
}
這算是 Nginx 服務器配置中最頻繁的部分,代理、緩存和日志定義等絕大多數功能和第三方模塊的配置都在這里。
需要注意的是:http 塊也可以包括 http 全局塊、server 塊。
http 全局塊
http 全局塊配置的指令包括文件引入、MIME-TYPE 定義、日志自定義、連接超時時間、單鏈接請求數上限等。
server 塊
這塊和虛擬主機有密切關系,虛擬主機從用戶角度看,和一臺獨立的硬件主機是完全一樣的,該技術的產生是為了節省互聯網服務器硬件成本。
每個 http 塊可以包括多個 server 塊,而每個 server 塊就相當于一個虛擬主機。
而每個 server 塊也分為全局 server 塊,以及可以同時包含多個 locaton 塊。
全局 server 塊
最常見的配置是本虛擬機主機的監聽配置和本虛擬主機的名稱或 IP 配置。
location 塊
一個 server 塊可以配置多個 location 塊。
這塊的主要作用是基于 Nginx 服務器接收到的請求字符串(例如 server_name/uri-string),對虛擬主機名稱(也可以是 IP 別名)之外的字符串(例如 前面的 /uri-string)進行匹配,對特定的請求進行處理。地址定向、數據緩存和應答控制等功能,還有許多第三方模塊的配置也在這里進行。
四、Nginx配置實戰-反向代理
案例配置如下:
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://localhost:8001;
}
location ~ /demo1 {
proxy_pass http://localhost:8001;
}
location ~ /demo2 {
proxy_pass http://localhost:8002;
}
}
location 指令說明
該指令用于匹配 URL,語法如下:
location [= | ~ | ~*| ^~] url{
}
= :用于不含正則表達式的 uri 前,要求請求字符串與 uri 嚴格匹配,如果匹配
成功,就停止繼續向下搜索并立即處理該請求。
~:用于表示 uri 包含正則表達式,并且區分大小寫。
~*:用于表示 uri 包含正則表達式,并且不區分大小寫。
^~:用于不含正則表達式的 uri 前,要求 Nginx 服務器找到標識 uri 和請求字
符串匹配度最高的 location 后,立即使用此 location 處理請求,而不再使用 location
塊中的正則 uri 和請求字符串做匹配。
注意:如果 uri 包含正則表達式,則必須要有 ~ 或者 ~* 標識。
五、Nginx配置實戰-負載均衡
案例配置如下:
http{
upstream myserver{
ip_hash;
server localhost:8080 weight=1;
server localhost:8081 weight=1;
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://myserver
proxy_connect_timeout 10;
}
}
在 linux 下有 Nginx、LVS、Haproxy 等等服務可以提供負載均衡服務,而且 Nginx 提供了幾種分配方式(策略):
輪詢(默認)
每個請求按時間順序逐一分配到不同的后端服務器,如果后端服務器 down 掉,能自動剔除。
weight
weight 代表權重,默認為 1,權重越高被分配的客戶端越多指定輪詢幾率,weight 和訪問比率成正比,用于后端服務器性能不均的情況。
ip_hash
每個請求按訪問 ip 的 hash 結果分配,這樣每個訪客固定訪問一個后端服務器,可以解決 session 的問題。
fair(第三方)
按后端服務器的響應時間來分配請求,響應時間短的優先分配。
六、Nginx 配置實戰-動靜分離
動靜分離從目前實現角度來講大致分為兩種:
1.一種是純粹把靜態文件獨立成單獨的域名,放在獨立的服務器上,也是目前主流推崇的方案;
2.另外一種方法就是動態跟靜態文件混合在一起發布,通過 nginx 來分開。
通過 location 指定不同的后綴名實現不同的請求轉發。通過 expires 參數設置,可以使瀏覽器緩存過期時間,減少與服務器之前的請求和流量。具體 Expires 定義:是給一個資源設定一個過期時間,也就是說無需去服務端驗證,直接通過瀏覽器自身確認是否過期即可,所以不會產生額外的流量。此種方法非常適合不經常變動的資源。(如果經常更新的文件,不建議使用 Expires 來緩存),我這里設置 3d,表示在這 3 天之內訪問這個 URL,發送一個請求,比對服務器該文件最后更新時間沒有變化,則不會從服務器抓取,返回狀態碼304,如果有修改,則直接從服務器重新下載,返回狀態碼 200。
七、Nginx 原理與優化參數配置
master-workers 的機制的好處
首先,對于每個 worker 進程來說,獨立的進程,不需要加鎖,所以省掉了鎖帶來的開銷,
同時在編程以及問題查找時,也會方便很多。其次,采用獨立的進程,可以讓互相之間不會
影響,一個進程退出后,其它進程還在工作,服務不會中斷,master 進程則很快啟動新的
worker 進程。當然,worker 進程的異常退出,肯定是程序有 bug 了,異常退出,會導致當
前 worker 上的所有請求失敗,不過不會影響到所有請求,所以降低了風險。
需要設置多少個 worker
Nginx 同 redis 類似都采用了 io 多路復用機制,每個 worker 都是一個獨立的進程,但每個進
程里只有一個主線程,通過異步非阻塞的方式來處理請求, 即使是千上萬個請求也不在話
下。每個 worker 的線程可以把一個 cpu 的性能發揮到極致。所以 worker 數和服務器的 cpu
數相等是最為適宜的。設少了會浪費 cpu,設多了會造成 cpu 頻繁切換上下文帶來的損耗。
#設置 worker 數量。
worker_processes 4
#work 綁定 cpu(4 work 綁定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 綁定 cpu (4 work 綁定 8cpu 中的 4 個) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000
連接數 worker_connection
這個值是表示每個 worker 進程所能建立連接的最大值,所以,一個 nginx 能建立的最大連接數,應該是 worker_connections * worker_processes。當然,這里說的是最大連接數,對于HTTP 請 求 本 地 資 源 來 說 , 能 夠 支 持 的 最 大 并 發 數 量 是 worker_connections * worker_processes,如果是支持 http1.1 的瀏覽器每次訪問要占兩個連接,所以普通的靜態訪問最大并發數是: worker_connections * worker_processes /2,而如果是 HTTP 作 為反向代理來說,最大并發數量應該是 worker_connections *
worker_processes/4。因為作為反向代理服務器,每個并發會建立與客戶端的連接和與后端服務的連接,會占用兩個連接。
八、nginx 搭建高可用集群
注意:此部分屬于高級技術,近幾日會將下面的知識點補充完畢。
8.1 Keepalived+Nginx 高可用集群(主從模式)
8.2 Keepalived+Nginx 高可用集群(雙主模式)