一个简单的高并发的回应服务器(5万并发)

本文介绍了一个使用Boost.Asio实现的跨平台网络服务器示例。该服务器支持Windows和Unix环境,并利用多线程池来处理客户端连接请求。文章展示了如何创建线程池、接受客户端连接、读写数据等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

跨平台代码https://github.com/wojiaoguowei/boost_test

 

 

 

大部分代码是转载,我在调试中查了资料

参考:http://blog.csdn.net/guanyijun123/article/details/42490377#quote

        http://blog.csdn.net/zhylei/article/details/8070772

 

#include <stdio.h>

//#include "AuthenHandle.h"
//#include "configure.h"
//#include "NetSocketCommand.h"


#ifdef WIN32 //for windows nt/2000/xp


 
//#include "gelsserver.h"
#pragma comment(lib,"Ws2_32.lib")
#else         //for unix




#include <sys/socket.h>
//    #include <sys/types.h>


//    #include <sys/signal.h>


//    #include <sys/time.h>


#include <netinet/in.h>     //socket


//    #include <netdb.h>


#include <unistd.h>            //gethostname


// #include <fcntl.h>


#include <arpa/inet.h>


#include <string.h>            //memset


typedef int SOCKET;
typedef struct sockaddr_in SOCKADDR_IN;
typedef struct sockaddr SOCKADDR;
#ifdef M_I386
typedef int socklen_t;
#endif


#define BOOL             int
#define INVALID_SOCKET    -1
#define SOCKET_ERROR     -1
#define TRUE             1
#define FALSE             0
#endif        //end #ifdef WIN32


static int count111 = 0;
static time_t oldtime = 0, nowtime = 0;


#include <list>
#include <cstdlib>
#include <iostream>
#include <stdexcept>
#include <boost/bind.hpp>
#include <boost/asio.hpp>
#include <boost/lexical_cast.hpp>
#include <boost/thread.hpp>


const int server_port = 6768;            //服务器启动的端口;
const int server_thread_pool_num = 4;    //服务器启动线程池的线程数;


using namespace std;
using boost::asio::ip::tcp;
CRITICAL_SECTION  listLock;
char szBuff[256] = {0} ;


int   nConnectCount = 0 ;


map<int, int> g_mapThreadId;  //线程ID 映射;


bool InsertMapThreadId(int nThreadId)
{
map<int, int>::iterator mapThreadIdIt = g_mapThreadId.find(nThreadId);
if (mapThreadIdIt == g_mapThreadId.end())
{
//没有找到插入并返回true;
g_mapThreadId.insert( std::make_pair(nThreadId, g_mapThreadId.size()+1) );
return true;
}
else
{
//已经存在不插入返回false
return false;
}
}


class io_service_pool
: public boost::noncopyable
{
public:


explicit io_service_pool(std::size_t pool_size)
: next_io_service_(0)

for (std::size_t i = 0; i < pool_size; ++ i)
{
io_service_sptr io_service(new boost::asio::io_service);
work_sptr work(new boost::asio::io_service::work(*io_service));
io_services_.push_back(io_service);
work_.push_back(work);
}
}


void start()

for (std::size_t i = 0; i < io_services_.size(); ++ i)
{
boost::shared_ptr<boost::thread> thread(new boost::thread(
boost::bind(&boost::asio::io_service::run, io_services_[i])));
threads_.push_back(thread);
}
}


void join()
{
for (std::size_t i = 0; i < threads_.size(); ++ i)
{
threads_[i]->join();
//threads_[i]->timed_join(boost::posix_time::seconds(1));


}


void stop()

for (std::size_t i = 0; i < io_services_.size(); ++ i)
{
io_services_[i]->stop();
}
}


boost::asio::io_service& get_io_service()
{
boost::mutex::scoped_lock lock(mtx);
boost::asio::io_service& io_service = *io_services_[next_io_service_];
++ next_io_service_;
if (next_io_service_ == io_services_.size())
{
next_io_service_ = 0;
}
return io_service;
}


private:
typedef boost::shared_ptr<boost::asio::io_service> io_service_sptr;
typedef boost::shared_ptr<boost::asio::io_service::work> work_sptr;
typedef boost::shared_ptr<boost::thread> thread_sptr;


boost::mutex mtx;


std::vector<io_service_sptr> io_services_;
std::vector<work_sptr> work_;
std::vector<thread_sptr> threads_; 
std::size_t next_io_service_;
boost::thread_group threads;
};


boost::mutex cout_mtx;
int packet_size = 0;
enum {MAX_PACKET_LEN = 4096};


class session
{
public:
session(boost::asio::io_service& io_service)
: socket_(io_service)
, recv_times(0)
{


bDeleteFlag = FALSE ;
memset(data_,0x00,sizeof(data_));


}


virtual ~session()
{
boost::mutex::scoped_lock lock(cout_mtx);
socket_.close() ;
nConnectCount -- ;
}


tcp::socket& socket()
{
return socket_;
}


//暂时不需要这个函数
inline void requestRead()
{
socket_.async_read_some(boost::asio::buffer(data_,MAX_PACKET_LEN ),//
boost::bind(&session::handle_read, this,
boost::asio::placeholders::error,
boost::asio::placeholders::bytes_transferred));
}



void handle_read(const boost::system::error_code& error, size_t bytes_transferred)
{
if (!error)
{
if(bytes_transferred > 0)
{
sendData(data_,bytes_transferred);


}
    
requestRead() ;
}
else
{
bDeleteFlag = TRUE;
//socket_.close() ;
nConnectCount -- ;
}
}


BOOL sendData(char* szData,int nLength)
{
boost::asio::ip::tcp::endpoint  endpoint1 = socket_.remote_endpoint();
int nThreadID = ::GetCurrentThreadId();
InsertMapThreadId(nThreadID);
printf("in    socket:%d  remoteip:%s threadId:%lld 0x:%x theadIdnum:%d ", socket_.remote_endpoint().port(), socket_.remote_endpoint().address().to_string().c_str() , nThreadID, nThreadID) ;
printf("threadNum:%d \r\n", g_mapThreadId.size());

if(bDeleteFlag || szData == NULL || nLength <= 0 )
return FALSE ;


boost::asio::async_write(socket_, boost::asio::buffer(szData, nLength),
boost::bind(&session::handle_write, this, boost::asio::placeholders::error));


        return TRUE ;
}


void handle_write(const boost::system::error_code& error)
{
int nThreadID = ::GetCurrentThreadId();
InsertMapThreadId(nThreadID);
printf("write socket:%d  remoteip:%s threadId:%lld 0x:%x  ", socket_.remote_endpoint().port(), socket_.remote_endpoint().address().to_string().c_str() , nThreadID, nThreadID) ;
printf("threadNum:%d \r\n", g_mapThreadId.size());
if (!error)
{//写入正确
 
}
else
{
bDeleteFlag = TRUE;
//socket_.close() ;
nConnectCount -- ;
}
}


public:
BOOL            bDeleteFlag ;


private:
tcp::socket     socket_;
char            data_[MAX_PACKET_LEN];
int             recv_times;
};


typedef list<session* >  SessionList ;
SessionList              sessionList ;
class server
{
public:
server(short port, int thread_cnt)
: io_service_pool_(thread_cnt)
, acceptor_(io_service_pool_.get_io_service(), tcp::endpoint(tcp::v4(), port))
{
session* new_session = new session(io_service_pool_.get_io_service());
acceptor_.async_accept(new_session->socket(),
boost::bind(&server::handle_accept, this, new_session, boost::asio::placeholders::error));




      EnterCriticalSection(&listLock);
sessionList.push_back(new_session) ;
      LeaveCriticalSection(&listLock);   
}


void handle_accept(session* new_session, const boost::system::error_code& error)
{
if (!error)
{
//new_session->readRequest(Packet_Is_Head,sizeof(PacketHead)); //先请求包头
   new_session->requestRead() ;
   nConnectCount ++ ;
}
else
{
            new_session->bDeleteFlag = TRUE ;
}


  new_session = new session(io_service_pool_.get_io_service());
acceptor_.async_accept(new_session->socket(),
boost::bind(&server::handle_accept, this, new_session, boost::asio::placeholders::error));
      EnterCriticalSection(&listLock);
    sessionList.push_back(new_session) ;
      LeaveCriticalSection(&listLock);   


  int nThreadID = ::GetCurrentThreadId();
  printf("链接数量 %d  threadId:%lld 0x:%x \r\n",nConnectCount,  nThreadID, nThreadID) ;
 
}


void run()
{
io_service_pool_.start();
io_service_pool_.join();
}


private:


io_service_pool io_service_pool_;
tcp::acceptor acceptor_;
};


int main()
{
  //boost


InitializeCriticalSection(&listLock) ;


printf("server run! server port :%d thread_poo_num:%d \n", server_port, server_thread_pool_num);


  //创建线程数量,要先检测CPU线程数量,然后再创建相应的线程数
server svr(server_port, server_thread_pool_num);
svr.run();



while(true)
{
Sleep(1000);
 
}
   DeleteCriticalSection(&listLock);


   printf("server end\n ");




   return 0;
}

本资源设置1个资源分,您可以下载作为捐献。 如果您有Git,还可以从http://www.goldenhawking.org:3000/goldenhawking/zoom.pipeline直接签出最新版本 (一个版本“一种可伸缩的全异步C/S架构服务器实现”是有问题的,现在已经完成更改)。 服务由以下几个模块组成. 1、 网络传输模块。负责管理用于监听、传输的套接字,并控制数据流在不同线程中流动。数据收发由一定规模的线程池负责,实现方法完全得益于Qt的线程事件循环。被绑定到某个Qthread上的Qobject对象,其信号-槽事件循环由该线程负责。这样,便可方便的指定某个套接字对象使用的线程。同样,受惠于Qt的良好封装,直接支持Tcp套接字及SSL套接字,且在运行时可动态调整。(注:编译这个模块需要Qt的SSL支持,即在 configure 时加入 -openssl 选项) 2、 任务流水线模块。负责数据的处理。在计算密集型的应用中,数据处理负荷较重,需要和网络传输划分开。基于普通线程池的处理模式,也存在队列阻塞的问题——若干个客户端请求的耗时操作,阻塞了其他客户端的响应,哪怕其他客户端的请求很短时间就能处理完毕,也必须排队等待。采用流水线线程池避免了这个问题。每个客户端把需要做的操作进行粒度化,在一个环形的队列中,线程池对单个客户端,每次仅处理一个粒度单位的任务。单个粒度单位完成后,该客户端的剩余任务便被重新插入到队列尾部。这个机制保证了客户端的整体延迟较小。 3、 服务集群管理模块。该模块使用了网络传输模块、任务流水线模块的功能,实现了跨进程的服务器ßà服务器链路。在高速局域网中,连接是快速、稳定的。因此,该模块被设计成一种星型无中心网络。任意新增服务器节点选择现有服务器集群中的任意一个节点,接入后,通过广播自动与其他服务器节点建立点对点连接。本模块只是提供一个服务器服务器的通信隧道,不负责具体通信内容的解译。对传输内容的控制,由具体应用决定。 4、 数据库管理模块。该模块基于Qt的插件式数据库封装QtSql。数据库被作为资源管理,支持在多线程的条件下,使用数据库资源。 5、 框架界面。尽管常见的服务运行时表现为一个后台进程,但为了更好的演示服务器的功能,避免繁琐的配置,还是需要一个图形界面来显示状态、设置参数。本范例中,界面负责轮训服务器的各个状态,并设置参数。设置好的参数被存储在一个ini文件中,并在服务开启时加载。 6、应用专有部分模块。上述1-4共四个主要模块均是通用的。他们互相之间没有形成联系,仅仅是作为一种资源存在于程序的运行时(Runtime)之中。应用专有部分模块根据具体任务需求,灵活的使用上述资源,以实现功能。在范例代码中,实现了一种点对点的转发机制。演示者虚拟出一些工业设备,以及一些操作员使用的客户端软件。设备与客户端软件在成功认证并登录后,需要交换数据。改变这个模块的代码,即可实现自己的功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值