堆和栈的区别(转经典)

一、程序的内存分配

  一个由C/C++编译的程序占用的内存分为以下几个部分

  1. 栈区(stack)  —   由编译器自动分配释放,存放函数的参数值,局部变量的值等。其操作方式类似于数据结构中的栈。
  2. 堆区(heap)   —   一般由程序员分配释放,若程序员不释放,程序结束时可能由OS回  
      收。注意它与数据结构中的堆是两回事,分配方式倒是类似于链表。
  3. 全局区(静态区)(static) —,全局变量和静态变量的存储是放在一块的,初始化的全局变量和静态变量在一块区域,   未初始化的全局变量和未初始化的静态变量在相邻的另一块区域。   –   程序结束后由系统释放。
  4. 文字常量区   —常量字符串就是放在这里的。   程序结束后由系统释放。
  5. 程序代码区—存放函数体的二进制代码。

  二、例子程序

    
  这是一个前辈写的,非常详细    

//main.cpp  int a   =   0; // 全局初始化区  char *p1; // 全局未初始化区  main()   
{ int b; // 栈  char s[]   = "abc"; // 栈  char *p2; // 栈  char *p3   = "123456"; // 123456/0在常量区,p3在栈上。  static int c   =0; // 全局(静态)初始化区  p1   =   (char *)malloc(10);   
    p2   =   (char *)malloc(20); // 分配得来得10和20字节的区域就在堆区。  strcpy(p1, "123456"); // 123456/0放在常量区,编译器可能会将它与p3所指向的"123456"  优化成一个地方。  }

  二、堆和栈的理论知识

  2.1申请方式

  stack:    
  由系统自动分配。   例如,声明在函数中一个局部变量   int   b;   系统自动在栈中为b开辟空间    
  heap:    
  需要程序员自己申请,并指明大小,在c中malloc函数    
  如p1   =   (char   *)malloc(10);    
  在C++中用new运算符    
  如p2   =   new   char[10];    
  但是注意p1、p2本身是在栈中的。    
 

2.2   申请后系统的响应

  栈:只要栈的剩余空间大于所申请空间,系统将为程序提供内存,否则将报异常提示栈溢出。    
  堆:首先应该知道操作系统有一个记录空闲内存地址的链表,当系统收到程序的申请时, 会遍历该链表,寻找第一个空间大于所申请空间的堆结点,然后将该结点从空闲结点链表中删除,并将该结点的空间分配给程序,另外,对于大多数系统,会在这块内存空间中的首地址处记录本次分配的大小,这样,代码中的delete语句才能正确的释放本内存空间。  
  另外,由于找到的堆结点的大小不一定正好等于申请的大小,系统会自动的将多余的那部分重新放入空闲链表中。    
 

2.3申请大小的限制

栈:在Windows下,栈是向低地址扩展的数据结构,是一块连续的内存的区域。这句话的意思是栈顶的地址和栈的最大容量是系统预先规定好的,在WINDOWS下,栈的大小是2M(也有的说是1M,总之是一个编译时就确定的常数),如果申请的空间超过栈的剩余空间时,将提示overflow。因此,能从栈获得的空间较小。    
堆:堆是向高地址扩展的数据结构,是不连续的内存区域。这是由于系统是用链表来存储的空闲内存地址的,自然是不连续的,而链表的遍历方向是由低地址向高地址。堆的大小 受限于计算机系统中有效的虚拟内存。由此可见,堆获得的空间比较灵活,也比较大。  

2.4申请效率的比较:  

栈由系统自动分配,速度较快。但程序员是无法控制的。   
堆是由new分配的内存,一般速度比较慢,而且容易产生内存碎片,不过用起来最方便.   
另外,在WINDOWS下,最好的方式是用VirtualAlloc分配内存,他不是在堆,也不是在栈是直接在进程的地址空间中保留一块内存,虽然用起来最不方便。但是速度快,也最灵活。

2.5堆和栈中的存储内容  

栈:   在函数调用时,第一个进栈的是主函数中后的下一条指令(函数调用语句的下一条可 执行语句)的地址,然后是函数的各个参数,在大多数的C编译器中,参数是由右往左入栈的,然后是函数中的局部变量。注意静态变量是不入栈的。当本次函数调用结束后,局部变量先出栈,然后是参数,最后栈顶指针指向最开始存的地 址,也就是主函数中的下一条指令,程序由该点继续运行。   
堆:一般是在堆的头部用一个字节存放堆的大小。堆中的具体内容由程序员安排。  

2.6存取效率的比较

  char s1[]   = "aaaaaaaaaaaaaaa"; char *s2   = "bbbbbbbbbbbbbbbbb";   

aaaaaaaaaaa是在运行时刻赋值的;而bbbbbbbbbbb是在编译时就确定的;   
但是,在以后的存取中,在栈上的数组比指针所指向的字符串(例如堆)快。  

比如:  

  #include void main()   
  { char a   =   1; char c[]   = "1234567890"; char *p   ="1234567890";   
    a   =   c[1];   
    a   =   p[1]; return;   
  }   

对应的汇编代码  

10:   a   =   c[1];   
00401067   8A   4D   F1   mov   cl,byte   ptr   [ebp-0Fh]   
0040106A   88   4D   FC   mov   byte   ptr   [ebp-4],cl   
11:   a   =   p[1];   
0040106D   8B   55   EC   mov   edx,dword   ptr   [ebp-14h]   
00401070   8A   42   01   mov   al,byte   ptr   [edx+1]   
00401073   88   45   FC   mov   byte   ptr   [ebp-4],al   
第一种在读取时直接就把字符串中的元素读到寄存器cl中,而第二种则要先把指针值读到 
edx中,再根据edx读取字符,显然慢了。  

2.7小结:  

堆和栈的区别可以用如下的比喻来看出:   
使用栈就象我们去饭馆里吃饭,只管点菜(发出申请)、付钱、和吃(使用),吃饱了就 走,不必理会切菜、洗菜等准备工作和洗碗、刷锅等扫尾工作,他的好处是快捷,但是自 由度小。   
使用堆就象是自己动手做喜欢吃的菜肴,比较麻烦,但是比较符合自己的口味,而且自由度大。   (经典!) 

WaitGroup()

WaitGroup的用途:它能够一直等到所有的goroutine执行完成,并且阻塞主线程的执行,直到所有的goroutine执行完成。

官方对它的说明如下:

A WaitGroup waits for a collection of goroutines to finish. The main goroutine calls Add to set the number of goroutines to wait for. Then each of the goroutines runs and calls Done when finished. At the same time, Wait can be used to block until all goroutines have finished.

 

sync.WaitGroup只有3个方法,Add(),Done(),Wait()。

其中Done()是Add(-1)的别名。简单的来说,使用Add()添加计数,Done()减掉一个计数,计数不为0, 阻塞Wait()的运行。

 

例子代码如下:

同时开三个协程去请求网页, 等三个请求都完成后才继续 Wait 之后的工作。

var wg sync.WaitGroup 
var urls = []string{ 
    “http://www.golang.org/”
    “http://www.google.com/”
    “http://www.somestupidname.com/”

for _, url := range urls { 
    // Increment the WaitGroup counter. 
    wg.Add(1) 
    // Launch a goroutine to fetch the URL. 
    go func(url string) { 
        // Decrement the counter when the goroutine completes. 
        defer wg.Done() 
        // Fetch the URL. 
        http.Get(url) 
    }(url) 

// Wait for all HTTP fetches to complete. 
wg.Wait()

 

或者下面的测试代码

用于测试 给chan发送 1千万次,并接受1千万次的性能。

package main

import ( 
    “fmt” 
    “sync” 
    “time” 
)

const ( 
    num = 10000000 
)

func main() { 
    TestFunc(“testchan”, TestChan) 
}

func TestFunc(name string, f func()) { 
    st := time.Now().UnixNano() 
    f() 
    fmt.Printf(“task %s cost %d \r\n”, name, (time.Now().UnixNano()-st)/int64(time.Millisecond)) 
}

func TestChan() { 
    var wg sync.WaitGroup 
    c := make(chan string) 
    wg.Add(1)

    go func() { 
        for _ = range c { 
        } 
        wg.Done() 
    }()

    for i := 0; i < num; i++ { 
        c <- “123” 
    }

    close(c) 
    wg.Wait()

}

设计模式的学习

OOP的核心思想:

 

封装(Encapsulation).

继承(inheritance).

多态(polymorphism).

 

什么是类?

概念层某些责任的抽象.

规格层一系列可以被其他对象使用的接口.

语言层封装了代码和数据.

 

 

软件设计原则:

针对接口编程,而不是针对实现.

不要滥用继承,理清继承和组合的关系.

[继承处理类之间的静态关系,组合处理对象间的动态关系]

分清层次,封装变化点.

 

类设计原则:

 

单一职责原则(SRP-Single Responsibility Principle).

一个类应该只有一个引起它变化的原因.

[如果一个类既负责一个类的显示,又表示一个类的存储,当显示需求变化时或者存储变化时都要修改这同一个类. 不过, 虽然SRP要求对每一个可能变化的职责都进行分开固然是正确的,但是这个变化一定要是现实中“真的可能”发生的。我们要专注于那些有较大可能发生变化的地方,而忽略那些不太可能变化或变化概率极小的细枝末节。比如说,你的数据访问逻辑是固定的,而中途变化数据库的可能也不大,因此,就没有必要把数据访问单独出来。一句话,不能为了“Everything is possible”,就把类结构设计的异常复杂。]

 

开放封闭原则(OCP-The Open-Closed Principle).

类可以扩展,但不可修改(对扩展开放,对修改封闭)[继承,让模块依赖于一个固定的抽象体,这个抽象体是不可以修改的;同时,通过这个抽象体派生,我们就可以扩展此模块的行为功能.关键是对抽象体的定义.]

 

Liskow替换原则(LSP -Liskov Substitution Principle)

子类必须可以替换基类.

[子类必须能够完成父类定义的所有任务]

 

依赖倒置原则(DIP-Dependency-Inversion Principles).

高层模块不应该依赖低层模块,二者应该依赖于抽象.

抽象不应该依赖于实现,实现应该依赖于抽象.

 

接口隔离原则(ISP-Interface Segregation Principle ).

不应该强迫客户程序依赖于它们不用的方法,一个类对另外一个类的依赖性应当是建立在最小的接口上(不要把不相关的放在同一个接口中).

 

 

什么是设计模式

描述软件设计过程中某一类常见问题的一般性解决方案.

 模式是用来对应变化的,不要为了用模式而用模式.

 

模式分类:

创建型(creational):负责对象创建.

结构型(structural): 处理类于对象的组合.

行为型(behavioral).:类于对象交互中的职责分配.

传统版本控制与git比较,以及安装

传统版本控制器SVN,CVS属于典型的集中式版本控制系统,类似于C/S 构架服务器,修改代码的时候,要先从中央服务器取出文件,进行编辑,修改,然后推送给中央服务器,其特点就是需要联网才可以工作(不管是局域网,还是互联网中,局域网中带宽大,速度快),如果在互联网中进行数据传输,一个比较大的文件就需要很长时间。如果服务器挂了 ,那么客户端就只能干瞪眼了。

分布式版本控制系统根本没有“中央服务器”,每个人的电脑上都是一个完整的版本库,这样,你工作的时候,就不需要联网了,因为版本库就在你自己的电脑上。既然每个人电脑上都有一个完整的版本库,那多个人如何协作呢?比方说你在自己电脑上改了文件A,你的同事也在他的电脑上改了文件A,这时,你们俩之间只需把各自的修改推送给对方,就可以互相看到对方的修改了。和集中式版本控制系统相比,分布式版本控制系统的安全性要高很多,因为每个人电脑里都有完整的版本库,某一个人的电脑坏掉了不要紧,随便从其他人那里复制一个就可以了。类似于p2p服务器模型,每个既是客户端,还有服务器端的完整数据。

二:安装

在Linux上安装Git

首先,你可以试着输入git,看看系统有没有安装Git:

$ git
The program 'git' is currently not installed. You can install it by typing:
sudo apt-get install git

像上面的命令,有很多Linux会友好地告诉你Git没有安装,然后按照提示sudo apt-get install git 即可。

在Mac上安装Git

如果你正在使用Mac做开发,有两种安装Git的方法。

一是安装homebrew,然后通过homebrew安装Git,具体方法请参考homebrew的文档:http://brew.sh/

第二种方法更简单,也是推荐的方法,就是直接从AppStore安装Xcode,Xcode集成了Git,不过默认没有安装,你需要运行Xcode,选择菜单“Xcode”->“Preferences”,在弹出窗口中找到“Downloads”,选择“Command Line Tools”,点“Install”就可以完成安装了。

参照廖雪峰博客记录

git历史

Linus在1991年创建了开源的Linux,从此,Linux系统不断发展,已经成为最大的服务器系统软件了。但Linux的壮大是靠全世界热心的志愿者参与的,这么多人在世界各地为Linux编写代码。期初世界各地的志愿者把源代码文件通过diff的方式发给Linus,然后由Linus本人通过手工方式合并代码!Linus坚定地反对CVS和SVN,这些集中式的版本控制系统不但速度慢,而且必须联网才能使用。有一些商用的版本控制系统,虽然比CVS、SVN好用,但那是付费的,和Linux的开源精神不符。于是Linus选择了一个商业的版本控制系统BitKeeper,BitKeeper的东家BitMover公司出于人道主义精神,授权Linux社区免费使用这个版本控制系统。

开发Samba的Andrew试图破解BitKeeper的协议,被BitMover公司发现了,于是BitMover公司怒了,要收回Linux社区的免费使用权。

Linus可以向BitMover公司道个歉,花了两周时间自己用C写了一个分布式版本控制系统,这就是Git!一个月之内,Linux系统的源码已经由Git管理了!(太牛逼了)

Git迅速成为最流行的分布式版本控制系统,尤其是2008年,GitHub网站上线了,它为开源项目免费提供Git存储,无数开源项目开始迁移至GitHub,包括jQuery,PHP,Ruby等等。

历史就是这么偶然,如果不是当年BitMover公司威胁Linux社区,可能现在我们就没有免费而超级好用的Git了。

时间复杂度为O(n),空间复杂度为O(1)的字符串去空格

 #include<stdio.h>
 void fun(char * a )
{
 int b = 0 ,c =0 ;
 for ( c = 0; a != '\0'; c++)
 {
if (a != ' ')
 {
 if ( c != b)
 {
 a[b] = a;
 }
 b++;
 }
 }
a[b] = 0;
 }
 int main()
 {
 char a[] = "i have a dream!"; 

 printf("a = %s \n",a);
 fun(a);

 printf("a = %s \n",a);

}

如何学好c语言

转载coolshell,关于学习成长。

keep_walker :
今天晚上我看到这篇文章。
http://programmers.stackexchange.com/questions/62502/small-c-projects

我也遇到了和提问的老外一样的问题。。能给像遇到这样烦恼的程序员一点建议嘛?谢谢!

我相信,这可能是很多朋友的问题,我以前也有这样的感觉,编程编到一定的时候,发现能力到了瓶颈,既不深,也不扎实,半吊子。比如:你长期地使用Java和.NET ,这些有虚拟机的语言对于开发便利是便利,但是对于程序员来说可能并不太好,原因有两个:

虚拟机屏蔽了操作系统的系统调用,以及很多底层机制。
大量的封装好的类库也屏蔽了很多实现细节。
一段时间后,你会发现你知其然,不知所以然。。我以前在CSDN上写过一篇《Java NIO类库Selector机制解析(上,下,续)》,在那篇文章中我说提到过(有讥讽的语气)Java的程序员不懂底层实现,所以很难把技术学得更扎实。此时,一部分程序员会不自然地想学学底层的技术,很自然的,C语言就被提了上来。

下面是我给这位朋友的一些建议:
鼓励并为你叫好。我鼓励你想要去学C语言的想法和精神,很多人都觉得C语言好学,其实并不然。(你可以看看《C语言的迷题》)现在的这个社会更多地去关注那些时髦的技术,而忽略了这个流行了40+年的C语言。一门技术如果能够流行40多年,这才是你需要去关注和学习的技术,而不是那些刚出来的技术(过度炒作的技术,Windows编程史)。这才是踏踏实实的精神。
不要找借口。这一条路走下来并不容易,不要给自己找借口。我最不喜欢听到的就是“很忙,没有时间”这样的借口。我以前在银行做项目,早9点到晚10点,周一到周六,我一样可以每天抽1个小时来看书和专研,一年下来也能精读5、6本书。我现在的工作项目和招聘任务很紧张,刚生的小孩只有自己和老婆两人带,还需要准备讲课,但是我还是能够找到时间看文章写文章维护酷壳。所以,我可以告诉你,“时间就像乳沟,只要你肯挤,就一定会有”。
学好C语言和系统编程。我认为,学好编程有四个方面:语言、算法和数据结构、系统调用和设计。
语言。我可以告诉你C语言有两大主题你要好好学,一个是内存管理,一个是指针!这个世界上90%以上的C/C++出的严重性错误全是和这两个有关。不要看谭浩强的那本书,那本是本烂书。推荐这本书给你《C程序设计语言(第2版·新版)》
算法和数据结构。我认为,用C语言实现算法和数据结构莫过于最爽的事情。推荐你看这本书——算法:C语言实现(第1~4部分)基础知识、数据结构、排序及搜索(原书第3版),还有那本经典的《算法导论》
系统编程。Windows下推荐两本书——《Windows 程序设计 》和《Windows核心编程》,Unix/Linux下推荐两本书——《Unix高级环境编程》和《Unix网络编程卷1,套接字》《Unix网络编程卷2,进程间通信》尤其是《Unix网络编程》这本书,一通百通,无论Windows还是Unix/Linux,都是一样的。
系统设计。关于设计方面,我全力推荐《Unix编程艺术》,看完以后,你就明白什么是真正的编程文化了。然后,当你看到Windows的Fans的某些言论时,你就知道什么叫一笑了之了。
如果你能在2-3年内精读完这些书,并全部融会贯通,那么你就明白什么是一览众山小的感觉了!我足足花了5年时间才算是真正全部读完这些书的。最后,祝你好运!努力!

我想,这篇文章主要想告诉大家这么几件事:

编程编到一定时候,你就需要了解底层系统的机制,否则,知其然不知所以然。
我没有否定非C的程序员的逻辑,真正的逻辑是——如果你想要了解底层机制,请学习C语言和操作系统。
40多年的Unix/C影响深远。包括影响了Windows。如果你想一通百通,一定要了解Unix。那是计算机文化真正的根。
不要肤浅地去思考问题。比如,不要以为一个DBA就不会考虑数据库引擎的内存页面的问题。也不要以为Web程序员就不需要了解后台的服务器和脚本的运行性能以及TCP/IP的问题。
高手往往都是有很强的系统的基础知识的,表面的东西永远是肤浅的.

编写高效服务器程序,需考虑的因素?

简单的搜索查询了下资料,copy了一些idea:

服务器带宽 内存 硬盘大小
建立连接池
肯定要分布式 连接请求如何分配
进程、线程如何访问临界资源
如何判断客户端已经挂了
如何避免DNS攻击
地址映射

降低每个连接的内存占用量。
降低每个连接的CPU资源占用率。
主要用iocp epoll kqueue以及sendfile这些api。研究学习nginx源码。