网站上有9000多张照片要下载:
//一开始参考https://www.jb51.net/article/153275.htm用reader和writer进行io.Copy,但经常是抓取100多个网页后就崩溃了,
//原因似乎是输入输出流影响或并发数量影响,代码执行快,输出流写硬盘慢。
//后来参考https://www.cnblogs.com/smartrui/p/12110576.html,改为ioutil.WriteFile直接写文件,还不行
//因为一共才9000多张照片,原来的程序每次下载前400张就崩溃了,应该是并发访问太多,网站受不了。
//于是狠心在主程序中每300个协程时延时2秒,终于成功下载完毕。但总感觉不那么优雅。
代码如下:
package main
import (
"fmt"
"io/ioutil"
"net/http"
"sync"
"time"
)
var wg sync.WaitGroup
//保存图片
func savepic(id int) {
defer wg.Add(-1)
idstr := fmt.Sprintf("%08d", id)
url := "http://192.168.13.1:8080/temp/Usr" + idstr + ".tmp"
resp, err := http.Get(url)
defer resp.Body.Close()
if err != nil {
fmt.Println(err)
}
body, err := ioutil.ReadAll(resp.Body)
if err != nil {
fmt.Println(err)
}
_ = ioutil.WriteFile("pic/"+idstr+".jpg", body, 0755)
}
func main() {
for id := 2; id < 9202; id++ {
wg.Add(1)
go savepic(id)
if (id % 300) == 0 {
time.Sleep(time.Duration(2000) * time.Millisecond)
}
}
wg.Wait()
}