面试题一Nginx
-
什么是Nginx?
Nginx是一个高性能的 HTTP 和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 代理服务器。因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。
-
为什么使用Nginx?和Tomcat有什么区别?
nginx常用做静态内容服务和代理服务器,直接外来请求转发给后面的应用服务器(tomcat,Diango等),tomcat更多用来做一个应用容器,让Java Web App泡在里面的东西。严格意思上来讲,Apache和Nginx应该叫做HTTP Server(静态服务器),而Tomcat是一个Applicants Server(动态服务器),是一个Servlet/JSO应用的容器。
Apache是同步多进程模型,一个连接对应一个进程,而Nginx是一步的,多个连接(万级别)可以对应一个进程。
Nginx轻量级,抗并发,处理静态文件好,能够支撑5万并发连接,并且CPU、内存等资源消耗却非常低,运行稳定。
-
Nginx的优缺点?
优点:
-
更快
一方面在正常情况下,单次请求会得到更快的响应;另一方面,在高峰期(数以万计的并发请求),Nginx可以比其他Web服务器更快地响应请求。
-
代理灵活,部署简单
可以通过端口代理和域名代理实现反向代理Nginx,安装和配置比较简单
-
高可靠性
用于反向代理,宕机的概率微乎其微
-
低内存消耗
一般情况下,10 000个非活跃的HTTP Keep-Alive连接在Nginx中仅消耗2.5MB的内存,这是Nginx支持高并发连接的基础。
-
单机支持10万以上的并发连接
-
热部署
-
最自由的BSD许可协议
master管理进程与worker工作进程的分离设计,使得Nginx能够提供热部署功能,即可以在7×24小时不间断服务的前提下,升级Nginx的可执行文件。当然,它也支持不停止服务就更新配置项、更换日志文件等功能。
缺点:
- nginx处理动态请求是鸡肋,一般动态请求要apache去做,nginx只适合静态和反向
- Nginx仅能支持http、https和Email协议,这样就在适用范围上面小些
-
-
什么是反向代理和负载均衡?
使用Nginx实现反向代理,Nginx只做请求的转发,后台有多个Http服务器提供服务,Nginx的功能就是把请求转发给后面的服务器,决定把请求转发给谁
负载均衡就是将负载较为平均分配到各个服务器
-
Nginx负载均衡有几种方式?
nginx默认支持的策略:
轮询(默认使用策略):
根据Nginx配置文件中的顺序,将请求按顺序轮流地分配到后端服务器上
upstream balance { server 114.215.83.4:8080; server 114.215.23.9:8080; }
least_conn(最小连接数):
Web请求会被转发到连接数最少的服务器上,尽可能地提高后端服务的利用效率,将负载合理地分流到每一台服务器。
upstream balance { least_conn; server 114.215.83.4:8080; server 114.215.23.9:8080; }
weight(指定权重)
权重越高的服务器被分配请求的概率越大,常用于后端服务器性能不均的情况下。
upstream balance { server 114.215.83.4:8080 weight=8; server 114.215.23.9:8080 weight=2; }
ip_hash(ip哈希)
前述负载均衡策略中,同一客户端连续的Web请求可能会被分发到不同的后端服务器进行处理,因此导致会话Session失效,ip_hash将同一客户端连续的Web请求都会被分发到同一服务器进行处理。
upstream balance { ip_hash; server 114.215.83.4:8080; server 114.215.23.9:8080; }
nginx需要第三方支持的策略:
fair :
按照服务器响应时间的长短来进行分发的,服务器响应时间越短的,优先分发。
upstream backserver { server server1; server server2; fair; }
url_hash(url哈希):
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
upstream backserver { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }
-
为什么不使用多线程?
Apache: 创建多个进程或线程,而每个进程或线程都会为其分配cpu和内存(线程要比进程小的多,所以worker支持比perfork高的并发),并发过大会榨干服务器资源。
Nginx: 采用单线程来异步非阻塞处理请求(管理员可以配置Nginx主进程的工作进程的数量)(epoll),不会为每个请求分配cpu和内存资源,节省了大量资源,同时也减少了大量的CPU的上下文切换。所以才使得Nginx支持更高的并发。
-
Nginx是如何处理一个请求的呢?
首先,nginx在启动时,会解析配置文件,得到需要监听的端口与ip地址,然后在nginx的master进程里面先初始化好这个监控的socket,再进行listen然后再fork出多个子进程出来, 子进程会竞争accept新的连接。此时,客户端就可以向nginx发起连接了。当客户端与nginx进行三次握手,与nginx建立好一个连接后,此时,某一个子进程会accept成功,然后创建nginx对连接的封装,即ngx_connection_t结构体接着,根据事件调用相应的事件处理模块,如http模块与客户端进行数据的交换,最后,nginx或客户端来主动关掉连接