加入收藏 | 设为首页 | 会员中心 | 我要投稿 好传媒网 (https://www.haochuanmei.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

从零实现一个Http服务器

发布时间:2019-04-18 06:44:41 所属栏目:外闻 来源:高性能服务器开发
导读:我始终觉得,天生的出身很重要,但后天的努力更加重要,所以如今的很多科班往往不如后天努力的非科班。所以,我们需要重新给专业和专家下一个定义:所谓专业,就是别人不搞你搞,这就是你的专业;你和别人同时搞,你比别人搞的好,就是专家。 说到http协议

注册结果放在retData中,为了发给客户端,我们将结果中的特殊字符如双引号转码,如返回结果是:

  1. {"code":0, "msg":"ok"} 

会被转码成:

  1. {%22code%22:0,%20%22msg%22:%22ok%22} 

然后,将数据组装成http协议发给客户端,给客户端的应答协议与http请求协议有一点点差别,就是将请求的url路径换成所谓的http响应码,如200表示应答正常返回、404页面不存在。应答协议格式如下:

  1. GET或POST 响应码 HTTP协议版本号rn 
  2. 2字段1名: 字段1值rn 
  3. 3字段2名: 字段2值rn 
  4. 4     … 
  5. 5字段n名 : 字段n值rn 
  6. 6rn 
  7. 7http协议包体内容 

举个例子如:

  1. HTTP/1.1 200 OKrn 
  2. Content-Type: text/htmlrn 
  3. Content-Length:42rn 
  4. rn 
  5. {%22code%22:%200,%20%22msg%22:%20%22ok%22} 

注意,包头中的Content-Length长度必须正好是包体{%22code%22:%200,%20%22msg%22:%20%22ok%22}的长度,这里是42。这也符合我们浏览器的返回结果:

从零实现一个Http服务器

当然,需要注意的是,我们一般说http连接一般是短连接,这里我们也实现了这个功能(看上面的代码:conn->forceClose();),不管一个http请求是否成功,服务器处理后立马就关闭连接。

当然,这里还有一些没处理好的地方,如果你仔细观察上面的代码就会发现这个问题,就是不满足一个http包头时的处理,如果某个客户端(不是使用浏览器)通过程序模拟了一个连接请求,但是迟迟不发含有rnrn的数据,这路连接将会一直占用。我们可以判断收到的数据长度,防止别有用心的客户端给我们的服务器乱发数据。我们假定,我们能处理的最大url长度是2048,如果用户发送的数据累积不含rnrn,且超过2048个,我们认为连接非法,将连接断开。代码修改成如下形式:

  1. void HttpSession::OnRead(const std::shared_ptr<TcpConnection>& conn, Buffer* pBuffer, Timestamp receivTime) 
  2.     //LOG_INFO << "Recv a http request from " << conn->peerAddress().toIpPort(); 
  3.  
  4.     string inbuf; 
  5.     //先把所有数据都取出来 
  6.     inbuf.append(pBuffer->peek(), pBuffer->readableBytes()); 
  7.     //因为一个http包头的数据至少rnrn,所以大于4个字符 
  8.     //小于等于4个字符,说明数据未收完,退出,等待网络底层接着收取 
  9.     if (inbuf.length() <= 4) 
  10.         return; 
  11.  
  12.     //我们收到的GET请求数据包一般格式如下: 
  13.     /* 
  14.     GET /register.do?p={%22username%22:%20%2213917043329%22,%20%22nickname%22:%20%22balloon%22,%20%22password%22:%20%22123%22} HTTP/1.1rn 
  15.     Host: 120.55.94.78:12345rn 
  16.     Connection: keep-alivern 
  17.     Upgrade-Insecure-Requests: 1rn 
  18.     User-Agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36rn 
  19.     Accept-Encoding: gzip, deflatern 
  20.     Accept-Language: zh-CN, zh; q=0.9, en; q=0.8rn 
  21.     rn 
  22.      */ 
  23.     //检查是否以rnrn结束,如果不是说明包头不完整,退出 
  24.     string end = inbuf.substr(inbuf.length() - 4); 
  25.     if (end != "rnrn") 
  26.         return; 
  27.     //超过2048个字符,且不含rnrn,我们认为是非法请求 
  28.     else if (inbuf.length() >= MAX_URL_LENGTH) 
  29.     { 
  30.         conn->forceClose(); 
  31.         return; 
  32.     } 
  33.  
  34.     //以rn分割每一行 
  35.     std::vector<string> lines; 
  36.     StringUtil::Split(inbuf, lines, "rn"); 
  37.     if (lines.size() < 1 || lines[0].empty()) 
  38.     { 
  39.         conn->forceClose(); 
  40.         return; 
  41.     } 
  42.  
  43.     std::vector<string> chunk; 
  44.     StringUtil::Split(lines[0], chunk, " "); 
  45.     //chunk中至少有三个字符串:GET+url+HTTP版本号 
  46.     if (chunk.size() < 3) 
  47.     { 
  48.         conn->forceClose(); 
  49.         return; 
  50.     } 
  51.  
  52.     LOG_INFO << "url: " << chunk[1] << " from " << conn->peerAddress().toIpPort(); 
  53.     //inbuf = /register.do?p={%22username%22:%20%2213917043329%22,%20%22nickname%22:%20%22balloon%22,%20%22password%22:%20%22123%22} 
  54.     std::vector<string> part; 
  55.     //通过?分割成前后两端,前面是url,后面是参数 
  56.     StringUtil::Split(chunk[1], part, "?"); 
  57.     //chunk中至少有三个字符串:GET+url+HTTP版本号 
  58.     if (part.size() < 2) 
  59.     { 
  60.         conn->forceClose(); 
  61.         return; 
  62.     } 
  63.  
  64.     string url = part[0]; 
  65.     string param = part[1].substr(2); 
  66.  
  67.     if (!Process(conn, url, param)) 
  68.     { 
  69.         LOG_ERROR << "handle http request error, from:" << conn->peerAddress().toIpPort() << ", request: " << pBuffer->retrieveAllAsString(); 
  70.     } 
  71.  
  72.     //短连接,处理完关闭连接 
  73.     conn->forceClose(); 

(编辑:好传媒网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读