New requests on StartRequests func will be made using Geziyor's methods. Not Requests chan
Options field exported.
This commit is contained in:
60
geziyor.go
60
geziyor.go
@ -24,12 +24,10 @@ type Exporter interface {
|
|||||||
|
|
||||||
// Geziyor is our main scraper type
|
// Geziyor is our main scraper type
|
||||||
type Geziyor struct {
|
type Geziyor struct {
|
||||||
|
Opt Options
|
||||||
|
|
||||||
client *http.Client
|
client *http.Client
|
||||||
wg sync.WaitGroup
|
wg sync.WaitGroup
|
||||||
opt Options
|
|
||||||
|
|
||||||
Requests chan *Request
|
|
||||||
|
|
||||||
visitedURLS []string
|
visitedURLS []string
|
||||||
semGlobal chan struct{}
|
semGlobal chan struct{}
|
||||||
semHosts struct {
|
semHosts struct {
|
||||||
@ -50,8 +48,7 @@ func NewGeziyor(opt Options) *Geziyor {
|
|||||||
client: &http.Client{
|
client: &http.Client{
|
||||||
Timeout: time.Second * 180, // Google's timeout
|
Timeout: time.Second * 180, // Google's timeout
|
||||||
},
|
},
|
||||||
Requests: make(chan *Request),
|
Opt: opt,
|
||||||
opt: opt,
|
|
||||||
}
|
}
|
||||||
|
|
||||||
if opt.Cache != nil {
|
if opt.Cache != nil {
|
||||||
@ -70,13 +67,13 @@ func NewGeziyor(opt Options) *Geziyor {
|
|||||||
}{hostSems: make(map[string]chan struct{})}
|
}{hostSems: make(map[string]chan struct{})}
|
||||||
}
|
}
|
||||||
if opt.UserAgent == "" {
|
if opt.UserAgent == "" {
|
||||||
geziyor.opt.UserAgent = "Geziyor 1.0"
|
geziyor.Opt.UserAgent = "Geziyor 1.0"
|
||||||
}
|
}
|
||||||
if opt.LogDisabled {
|
if opt.LogDisabled {
|
||||||
log.SetOutput(ioutil.Discard)
|
log.SetOutput(ioutil.Discard)
|
||||||
}
|
}
|
||||||
if opt.MaxBodySize == 0 {
|
if opt.MaxBodySize == 0 {
|
||||||
geziyor.opt.MaxBodySize = 1024 * 1024 * 1024 // 1GB
|
geziyor.Opt.MaxBodySize = 1024 * 1024 * 1024 // 1GB
|
||||||
}
|
}
|
||||||
|
|
||||||
return geziyor
|
return geziyor
|
||||||
@ -86,17 +83,12 @@ func NewGeziyor(opt Options) *Geziyor {
|
|||||||
func (g *Geziyor) Start() {
|
func (g *Geziyor) Start() {
|
||||||
log.Println("Scraping Started")
|
log.Println("Scraping Started")
|
||||||
|
|
||||||
if g.opt.StartRequestsFunc == nil {
|
if g.Opt.StartRequestsFunc == nil {
|
||||||
for _, startURL := range g.opt.StartURLs {
|
for _, startURL := range g.Opt.StartURLs {
|
||||||
go g.Get(startURL, g.opt.ParseFunc)
|
go g.Get(startURL, g.Opt.ParseFunc)
|
||||||
}
|
}
|
||||||
} else {
|
} else {
|
||||||
go func() {
|
g.Opt.StartRequestsFunc(g)
|
||||||
for req := range g.Requests {
|
|
||||||
go g.Do(req, g.opt.ParseFunc)
|
|
||||||
}
|
|
||||||
}()
|
|
||||||
g.opt.StartRequestsFunc(g)
|
|
||||||
}
|
}
|
||||||
|
|
||||||
time.Sleep(time.Millisecond)
|
time.Sleep(time.Millisecond)
|
||||||
@ -143,7 +135,7 @@ func (g *Geziyor) Do(req *Request, callback func(resp *Response)) {
|
|||||||
req.Header.Set("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8")
|
req.Header.Set("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8")
|
||||||
req.Header.Set("Accept-Charset", "utf-8")
|
req.Header.Set("Accept-Charset", "utf-8")
|
||||||
req.Header.Set("Accept-Language", "en")
|
req.Header.Set("Accept-Language", "en")
|
||||||
req.Header.Set("User-Agent", g.opt.UserAgent)
|
req.Header.Set("User-Agent", g.Opt.UserAgent)
|
||||||
|
|
||||||
g.acquireSem(req)
|
g.acquireSem(req)
|
||||||
|
|
||||||
@ -163,10 +155,10 @@ func (g *Geziyor) Do(req *Request, callback func(resp *Response)) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
// Limit response body reading
|
// Limit response body reading
|
||||||
bodyReader := io.LimitReader(resp.Body, g.opt.MaxBodySize)
|
bodyReader := io.LimitReader(resp.Body, g.Opt.MaxBodySize)
|
||||||
|
|
||||||
// Start reading body and determine encoding
|
// Start reading body and determine encoding
|
||||||
if !g.opt.CharsetDetectDisabled {
|
if !g.Opt.CharsetDetectDisabled {
|
||||||
bodyReader, err = charset.NewReader(bodyReader, resp.Header.Get("Content-Type"))
|
bodyReader, err = charset.NewReader(bodyReader, resp.Header.Get("Content-Type"))
|
||||||
if err != nil {
|
if err != nil {
|
||||||
log.Printf("Determine encoding error: %v\n", err)
|
log.Printf("Determine encoding error: %v\n", err)
|
||||||
@ -197,12 +189,12 @@ func (g *Geziyor) Do(req *Request, callback func(resp *Response)) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
// Exporter functions
|
// Exporter functions
|
||||||
for _, exp := range g.opt.Exporters {
|
for _, exp := range g.Opt.Exporters {
|
||||||
go exp.Export(&response)
|
go exp.Export(&response)
|
||||||
}
|
}
|
||||||
|
|
||||||
// Drain exports chan if no exporter functions added
|
// Drain exports chan if no exporter functions added
|
||||||
if len(g.opt.Exporters) == 0 {
|
if len(g.Opt.Exporters) == 0 {
|
||||||
go func() {
|
go func() {
|
||||||
for range response.Exports {
|
for range response.Exports {
|
||||||
}
|
}
|
||||||
@ -213,24 +205,24 @@ func (g *Geziyor) Do(req *Request, callback func(resp *Response)) {
|
|||||||
if callback != nil {
|
if callback != nil {
|
||||||
callback(&response)
|
callback(&response)
|
||||||
} else {
|
} else {
|
||||||
if g.opt.ParseFunc != nil {
|
if g.Opt.ParseFunc != nil {
|
||||||
g.opt.ParseFunc(&response)
|
g.Opt.ParseFunc(&response)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
time.Sleep(time.Millisecond)
|
time.Sleep(time.Millisecond)
|
||||||
}
|
}
|
||||||
|
|
||||||
func (g *Geziyor) acquireSem(req *Request) {
|
func (g *Geziyor) acquireSem(req *Request) {
|
||||||
if g.opt.ConcurrentRequests != 0 {
|
if g.Opt.ConcurrentRequests != 0 {
|
||||||
g.semGlobal <- struct{}{}
|
g.semGlobal <- struct{}{}
|
||||||
}
|
}
|
||||||
|
|
||||||
if g.opt.ConcurrentRequestsPerDomain != 0 {
|
if g.Opt.ConcurrentRequestsPerDomain != 0 {
|
||||||
g.semHosts.RLock()
|
g.semHosts.RLock()
|
||||||
hostSem, exists := g.semHosts.hostSems[req.Host]
|
hostSem, exists := g.semHosts.hostSems[req.Host]
|
||||||
g.semHosts.RUnlock()
|
g.semHosts.RUnlock()
|
||||||
if !exists {
|
if !exists {
|
||||||
hostSem = make(chan struct{}, g.opt.ConcurrentRequestsPerDomain)
|
hostSem = make(chan struct{}, g.Opt.ConcurrentRequestsPerDomain)
|
||||||
g.semHosts.Lock()
|
g.semHosts.Lock()
|
||||||
g.semHosts.hostSems[req.Host] = hostSem
|
g.semHosts.hostSems[req.Host] = hostSem
|
||||||
g.semHosts.Unlock()
|
g.semHosts.Unlock()
|
||||||
@ -240,10 +232,10 @@ func (g *Geziyor) acquireSem(req *Request) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (g *Geziyor) releaseSem(req *Request) {
|
func (g *Geziyor) releaseSem(req *Request) {
|
||||||
if g.opt.ConcurrentRequests != 0 {
|
if g.Opt.ConcurrentRequests != 0 {
|
||||||
<-g.semGlobal
|
<-g.semGlobal
|
||||||
}
|
}
|
||||||
if g.opt.ConcurrentRequestsPerDomain != 0 {
|
if g.Opt.ConcurrentRequestsPerDomain != 0 {
|
||||||
<-g.semHosts.hostSems[req.Host]
|
<-g.semHosts.hostSems[req.Host]
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -251,7 +243,7 @@ func (g *Geziyor) releaseSem(req *Request) {
|
|||||||
func (g *Geziyor) checkURL(parsedURL *url.URL) bool {
|
func (g *Geziyor) checkURL(parsedURL *url.URL) bool {
|
||||||
rawURL := parsedURL.String()
|
rawURL := parsedURL.String()
|
||||||
// Check for allowed domains
|
// Check for allowed domains
|
||||||
if len(g.opt.AllowedDomains) != 0 && !contains(g.opt.AllowedDomains, parsedURL.Host) {
|
if len(g.Opt.AllowedDomains) != 0 && !contains(g.Opt.AllowedDomains, parsedURL.Host) {
|
||||||
//log.Printf("Domain not allowed: %s\n", parsedURL.Host)
|
//log.Printf("Domain not allowed: %s\n", parsedURL.Host)
|
||||||
return false
|
return false
|
||||||
}
|
}
|
||||||
@ -267,12 +259,12 @@ func (g *Geziyor) checkURL(parsedURL *url.URL) bool {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (g *Geziyor) delay() {
|
func (g *Geziyor) delay() {
|
||||||
if g.opt.RequestDelayRandomize {
|
if g.Opt.RequestDelayRandomize {
|
||||||
min := float64(g.opt.RequestDelay) * 0.5
|
min := float64(g.Opt.RequestDelay) * 0.5
|
||||||
max := float64(g.opt.RequestDelay) * 1.5
|
max := float64(g.Opt.RequestDelay) * 1.5
|
||||||
time.Sleep(time.Duration(rand.Intn(int(max-min)) + int(min)))
|
time.Sleep(time.Duration(rand.Intn(int(max-min)) + int(min)))
|
||||||
} else {
|
} else {
|
||||||
time.Sleep(g.opt.RequestDelay)
|
time.Sleep(g.Opt.RequestDelay)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -68,18 +68,16 @@ func TestLinks(t *testing.T) {
|
|||||||
geziyor.NewGeziyor(geziyor.Options{
|
geziyor.NewGeziyor(geziyor.Options{
|
||||||
AllowedDomains: []string{"books.toscrape.com"},
|
AllowedDomains: []string{"books.toscrape.com"},
|
||||||
StartURLs: []string{"http://books.toscrape.com/"},
|
StartURLs: []string{"http://books.toscrape.com/"},
|
||||||
ParseFunc: linksParse,
|
ParseFunc: func(r *geziyor.Response) {
|
||||||
Exporters: []geziyor.Exporter{exporter.CSVExporter{}},
|
|
||||||
}).Start()
|
|
||||||
}
|
|
||||||
|
|
||||||
func linksParse(r *geziyor.Response) {
|
|
||||||
r.Exports <- []string{r.Request.URL.String()}
|
r.Exports <- []string{r.Request.URL.String()}
|
||||||
r.DocHTML.Find("a").Each(func(i int, s *goquery.Selection) {
|
r.DocHTML.Find("a").Each(func(i int, s *goquery.Selection) {
|
||||||
if href, ok := s.Attr("href"); ok {
|
if href, ok := s.Attr("href"); ok {
|
||||||
go r.Geziyor.Get(r.JoinURL(href), linksParse)
|
go r.Geziyor.Get(r.JoinURL(href), r.Geziyor.Opt.ParseFunc)
|
||||||
}
|
}
|
||||||
})
|
})
|
||||||
|
},
|
||||||
|
Exporters: []geziyor.Exporter{exporter.CSVExporter{}},
|
||||||
|
}).Start()
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestRandomDelay(t *testing.T) {
|
func TestRandomDelay(t *testing.T) {
|
||||||
@ -94,8 +92,7 @@ func TestRandomDelay(t *testing.T) {
|
|||||||
func TestStartRequestsFunc(t *testing.T) {
|
func TestStartRequestsFunc(t *testing.T) {
|
||||||
geziyor.NewGeziyor(geziyor.Options{
|
geziyor.NewGeziyor(geziyor.Options{
|
||||||
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
||||||
req, _ := http.NewRequest("GET", "http://quotes.toscrape.com/", nil)
|
go g.Get("http://quotes.toscrape.com/", g.Opt.ParseFunc)
|
||||||
g.Requests <- &geziyor.Request{Request: req}
|
|
||||||
},
|
},
|
||||||
ParseFunc: func(r *geziyor.Response) {
|
ParseFunc: func(r *geziyor.Response) {
|
||||||
r.DocHTML.Find("a").Each(func(_ int, s *goquery.Selection) {
|
r.DocHTML.Find("a").Each(func(_ int, s *goquery.Selection) {
|
||||||
@ -116,12 +113,11 @@ func TestAlmaany(t *testing.T) {
|
|||||||
for _, c1 := range alphabet {
|
for _, c1 := range alphabet {
|
||||||
for _, c2 := range alphabet {
|
for _, c2 := range alphabet {
|
||||||
req, _ := http.NewRequest("GET", fmt.Sprintf(base, c1, c2), nil)
|
req, _ := http.NewRequest("GET", fmt.Sprintf(base, c1, c2), nil)
|
||||||
g.Requests <- &geziyor.Request{Request: req, Meta: map[string]interface{}{"word": string(c1) + string(c2)}}
|
go g.Do(&geziyor.Request{Request: req, Meta: map[string]interface{}{"word": string(c1) + string(c2)}}, parseAlmaany)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
ConcurrentRequests: 10,
|
ConcurrentRequests: 10,
|
||||||
ParseFunc: parseAlmaany,
|
|
||||||
Exporters: []geziyor.Exporter{exporter.CSVExporter{}},
|
Exporters: []geziyor.Exporter{exporter.CSVExporter{}},
|
||||||
}).Start()
|
}).Start()
|
||||||
|
|
||||||
@ -133,7 +129,7 @@ func parseAlmaany(r *geziyor.Response) {
|
|||||||
r.Exports <- words
|
r.Exports <- words
|
||||||
|
|
||||||
if len(words) == 20 {
|
if len(words) == 20 {
|
||||||
alphabet := "abcde"
|
alphabet := "ab"
|
||||||
base := "http://www.almaany.com/suggest.php?term=%s%c&lang=turkish&t=d"
|
base := "http://www.almaany.com/suggest.php?term=%s%c&lang=turkish&t=d"
|
||||||
|
|
||||||
for _, c := range alphabet {
|
for _, c := range alphabet {
|
||||||
|
Reference in New Issue
Block a user