堆和栈的区别(转经典)

一、程序的内存分配

  一个由C/C++编译的程序占用的内存分为以下几个部分

  1. 栈区(stack)  —   由编译器自动分配释放,存放函数的参数值,局部变量的值等。其操作方式类似于数据结构中的栈。
  2. 堆区(heap)   —   一般由程序员分配释放,若程序员不释放,程序结束时可能由OS回  
      收。注意它与数据结构中的堆是两回事,分配方式倒是类似于链表。
  3. 全局区(静态区)(static) —,全局变量和静态变量的存储是放在一块的,初始化的全局变量和静态变量在一块区域,   未初始化的全局变量和未初始化的静态变量在相邻的另一块区域。   –   程序结束后由系统释放。
  4. 文字常量区   —常量字符串就是放在这里的。   程序结束后由系统释放。
  5. 程序代码区—存放函数体的二进制代码。

  二、例子程序

    
  这是一个前辈写的,非常详细    

//main.cpp  int a   =   0; // 全局初始化区  char *p1; // 全局未初始化区  main()   
{ int b; // 栈  char s[]   = "abc"; // 栈  char *p2; // 栈  char *p3   = "123456"; // 123456/0在常量区,p3在栈上。  static int c   =0; // 全局(静态)初始化区  p1   =   (char *)malloc(10);   
    p2   =   (char *)malloc(20); // 分配得来得10和20字节的区域就在堆区。  strcpy(p1, "123456"); // 123456/0放在常量区,编译器可能会将它与p3所指向的"123456"  优化成一个地方。  }

  二、堆和栈的理论知识

  2.1申请方式

  stack:    
  由系统自动分配。   例如,声明在函数中一个局部变量   int   b;   系统自动在栈中为b开辟空间    
  heap:    
  需要程序员自己申请,并指明大小,在c中malloc函数    
  如p1   =   (char   *)malloc(10);    
  在C++中用new运算符    
  如p2   =   new   char[10];    
  但是注意p1、p2本身是在栈中的。    
 

2.2   申请后系统的响应

  栈:只要栈的剩余空间大于所申请空间,系统将为程序提供内存,否则将报异常提示栈溢出。    
  堆:首先应该知道操作系统有一个记录空闲内存地址的链表,当系统收到程序的申请时, 会遍历该链表,寻找第一个空间大于所申请空间的堆结点,然后将该结点从空闲结点链表中删除,并将该结点的空间分配给程序,另外,对于大多数系统,会在这块内存空间中的首地址处记录本次分配的大小,这样,代码中的delete语句才能正确的释放本内存空间。  
  另外,由于找到的堆结点的大小不一定正好等于申请的大小,系统会自动的将多余的那部分重新放入空闲链表中。    
 

2.3申请大小的限制

栈:在Windows下,栈是向低地址扩展的数据结构,是一块连续的内存的区域。这句话的意思是栈顶的地址和栈的最大容量是系统预先规定好的,在WINDOWS下,栈的大小是2M(也有的说是1M,总之是一个编译时就确定的常数),如果申请的空间超过栈的剩余空间时,将提示overflow。因此,能从栈获得的空间较小。    
堆:堆是向高地址扩展的数据结构,是不连续的内存区域。这是由于系统是用链表来存储的空闲内存地址的,自然是不连续的,而链表的遍历方向是由低地址向高地址。堆的大小 受限于计算机系统中有效的虚拟内存。由此可见,堆获得的空间比较灵活,也比较大。  

2.4申请效率的比较:  

栈由系统自动分配,速度较快。但程序员是无法控制的。   
堆是由new分配的内存,一般速度比较慢,而且容易产生内存碎片,不过用起来最方便.   
另外,在WINDOWS下,最好的方式是用VirtualAlloc分配内存,他不是在堆,也不是在栈是直接在进程的地址空间中保留一块内存,虽然用起来最不方便。但是速度快,也最灵活。

2.5堆和栈中的存储内容  

栈:   在函数调用时,第一个进栈的是主函数中后的下一条指令(函数调用语句的下一条可 执行语句)的地址,然后是函数的各个参数,在大多数的C编译器中,参数是由右往左入栈的,然后是函数中的局部变量。注意静态变量是不入栈的。当本次函数调用结束后,局部变量先出栈,然后是参数,最后栈顶指针指向最开始存的地 址,也就是主函数中的下一条指令,程序由该点继续运行。   
堆:一般是在堆的头部用一个字节存放堆的大小。堆中的具体内容由程序员安排。  

2.6存取效率的比较

  char s1[]   = "aaaaaaaaaaaaaaa"; char *s2   = "bbbbbbbbbbbbbbbbb";   

aaaaaaaaaaa是在运行时刻赋值的;而bbbbbbbbbbb是在编译时就确定的;   
但是,在以后的存取中,在栈上的数组比指针所指向的字符串(例如堆)快。  

比如:  

  #include void main()   
  { char a   =   1; char c[]   = "1234567890"; char *p   ="1234567890";   
    a   =   c[1];   
    a   =   p[1]; return;   
  }   

对应的汇编代码  

10:   a   =   c[1];   
00401067   8A   4D   F1   mov   cl,byte   ptr   [ebp-0Fh]   
0040106A   88   4D   FC   mov   byte   ptr   [ebp-4],cl   
11:   a   =   p[1];   
0040106D   8B   55   EC   mov   edx,dword   ptr   [ebp-14h]   
00401070   8A   42   01   mov   al,byte   ptr   [edx+1]   
00401073   88   45   FC   mov   byte   ptr   [ebp-4],al   
第一种在读取时直接就把字符串中的元素读到寄存器cl中,而第二种则要先把指针值读到 
edx中,再根据edx读取字符,显然慢了。  

2.7小结:  

堆和栈的区别可以用如下的比喻来看出:   
使用栈就象我们去饭馆里吃饭,只管点菜(发出申请)、付钱、和吃(使用),吃饱了就 走,不必理会切菜、洗菜等准备工作和洗碗、刷锅等扫尾工作,他的好处是快捷,但是自 由度小。   
使用堆就象是自己动手做喜欢吃的菜肴,比较麻烦,但是比较符合自己的口味,而且自由度大。   (经典!) 

WaitGroup()

WaitGroup的用途:它能够一直等到所有的goroutine执行完成,并且阻塞主线程的执行,直到所有的goroutine执行完成。

官方对它的说明如下:

A WaitGroup waits for a collection of goroutines to finish. The main goroutine calls Add to set the number of goroutines to wait for. Then each of the goroutines runs and calls Done when finished. At the same time, Wait can be used to block until all goroutines have finished.

 

sync.WaitGroup只有3个方法,Add(),Done(),Wait()。

其中Done()是Add(-1)的别名。简单的来说,使用Add()添加计数,Done()减掉一个计数,计数不为0, 阻塞Wait()的运行。

 

例子代码如下:

同时开三个协程去请求网页, 等三个请求都完成后才继续 Wait 之后的工作。

var wg sync.WaitGroup 
var urls = []string{ 
    “http://www.golang.org/”
    “http://www.google.com/”
    “http://www.somestupidname.com/”

for _, url := range urls { 
    // Increment the WaitGroup counter. 
    wg.Add(1) 
    // Launch a goroutine to fetch the URL. 
    go func(url string) { 
        // Decrement the counter when the goroutine completes. 
        defer wg.Done() 
        // Fetch the URL. 
        http.Get(url) 
    }(url) 

// Wait for all HTTP fetches to complete. 
wg.Wait()

 

或者下面的测试代码

用于测试 给chan发送 1千万次,并接受1千万次的性能。

package main

import ( 
    “fmt” 
    “sync” 
    “time” 
)

const ( 
    num = 10000000 
)

func main() { 
    TestFunc(“testchan”, TestChan) 
}

func TestFunc(name string, f func()) { 
    st := time.Now().UnixNano() 
    f() 
    fmt.Printf(“task %s cost %d \r\n”, name, (time.Now().UnixNano()-st)/int64(time.Millisecond)) 
}

func TestChan() { 
    var wg sync.WaitGroup 
    c := make(chan string) 
    wg.Add(1)

    go func() { 
        for _ = range c { 
        } 
        wg.Done() 
    }()

    for i := 0; i < num; i++ { 
        c <- “123” 
    }

    close(c) 
    wg.Wait()

}

设计模式的学习

OOP的核心思想:

 

封装(Encapsulation).

继承(inheritance).

多态(polymorphism).

 

什么是类?

概念层某些责任的抽象.

规格层一系列可以被其他对象使用的接口.

语言层封装了代码和数据.

 

 

软件设计原则:

针对接口编程,而不是针对实现.

不要滥用继承,理清继承和组合的关系.

[继承处理类之间的静态关系,组合处理对象间的动态关系]

分清层次,封装变化点.

 

类设计原则:

 

单一职责原则(SRP-Single Responsibility Principle).

一个类应该只有一个引起它变化的原因.

[如果一个类既负责一个类的显示,又表示一个类的存储,当显示需求变化时或者存储变化时都要修改这同一个类. 不过, 虽然SRP要求对每一个可能变化的职责都进行分开固然是正确的,但是这个变化一定要是现实中“真的可能”发生的。我们要专注于那些有较大可能发生变化的地方,而忽略那些不太可能变化或变化概率极小的细枝末节。比如说,你的数据访问逻辑是固定的,而中途变化数据库的可能也不大,因此,就没有必要把数据访问单独出来。一句话,不能为了“Everything is possible”,就把类结构设计的异常复杂。]

 

开放封闭原则(OCP-The Open-Closed Principle).

类可以扩展,但不可修改(对扩展开放,对修改封闭)[继承,让模块依赖于一个固定的抽象体,这个抽象体是不可以修改的;同时,通过这个抽象体派生,我们就可以扩展此模块的行为功能.关键是对抽象体的定义.]

 

Liskow替换原则(LSP -Liskov Substitution Principle)

子类必须可以替换基类.

[子类必须能够完成父类定义的所有任务]

 

依赖倒置原则(DIP-Dependency-Inversion Principles).

高层模块不应该依赖低层模块,二者应该依赖于抽象.

抽象不应该依赖于实现,实现应该依赖于抽象.

 

接口隔离原则(ISP-Interface Segregation Principle ).

不应该强迫客户程序依赖于它们不用的方法,一个类对另外一个类的依赖性应当是建立在最小的接口上(不要把不相关的放在同一个接口中).

 

 

什么是设计模式

描述软件设计过程中某一类常见问题的一般性解决方案.

 模式是用来对应变化的,不要为了用模式而用模式.

 

模式分类:

创建型(creational):负责对象创建.

结构型(structural): 处理类于对象的组合.

行为型(behavioral).:类于对象交互中的职责分配.