Extractors removed as they introduce complexity to scraper. Both in learning and developing.
238 lines
6.5 KiB
Go
238 lines
6.5 KiB
Go
package geziyor_test
|
|
|
|
import (
|
|
"fmt"
|
|
"github.com/PuerkitoBio/goquery"
|
|
"github.com/fortytw2/leaktest"
|
|
"github.com/fpfeng/httpcache"
|
|
"github.com/geziyor/geziyor"
|
|
"github.com/geziyor/geziyor/client"
|
|
"github.com/geziyor/geziyor/export"
|
|
"github.com/geziyor/geziyor/metrics"
|
|
"net/http"
|
|
"net/http/httptest"
|
|
"testing"
|
|
)
|
|
|
|
func TestSimple(t *testing.T) {
|
|
defer leaktest.Check(t)()
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"http://api.ipify.org"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
fmt.Println(string(r.Body))
|
|
},
|
|
}).Start()
|
|
}
|
|
|
|
func TestSimpleCache(t *testing.T) {
|
|
defer leaktest.Check(t)()
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"http://api.ipify.org"},
|
|
Cache: httpcache.NewMemoryCache(),
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
fmt.Println(string(r.Body))
|
|
g.Exports <- string(r.Body)
|
|
g.Get("http://api.ipify.org", nil)
|
|
},
|
|
}).Start()
|
|
}
|
|
|
|
func TestQuotes(t *testing.T) {
|
|
defer leaktest.Check(t)()
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"http://quotes.toscrape.com/"},
|
|
ParseFunc: quotesParse,
|
|
Exporters: []export.Exporter{&export.JSON{}},
|
|
}).Start()
|
|
}
|
|
|
|
func quotesParse(g *geziyor.Geziyor, r *client.Response) {
|
|
r.HTMLDoc.Find("div.quote").Each(func(i int, s *goquery.Selection) {
|
|
// Export Data
|
|
g.Exports <- map[string]interface{}{
|
|
"number": i,
|
|
"text": s.Find("span.text").Text(),
|
|
"author": s.Find("small.author").Text(),
|
|
"tags": s.Find("div.tags > a.tag").Map(func(_ int, s *goquery.Selection) string {
|
|
return s.Text()
|
|
}),
|
|
}
|
|
})
|
|
|
|
// Next Page
|
|
if href, ok := r.HTMLDoc.Find("li.next > a").Attr("href"); ok {
|
|
g.Get(r.JoinURL(href), quotesParse)
|
|
}
|
|
}
|
|
|
|
func TestAllLinks(t *testing.T) {
|
|
if testing.Short() {
|
|
t.Skip("skipping test in short mode.")
|
|
}
|
|
defer leaktest.Check(t)()
|
|
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
AllowedDomains: []string{"books.toscrape.com"},
|
|
StartURLs: []string{"http://books.toscrape.com/"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
g.Exports <- []string{r.Request.URL.String()}
|
|
r.HTMLDoc.Find("a").Each(func(i int, s *goquery.Selection) {
|
|
if href, ok := s.Attr("href"); ok {
|
|
g.Get(r.JoinURL(href), g.Opt.ParseFunc)
|
|
}
|
|
})
|
|
},
|
|
Exporters: []export.Exporter{&export.CSV{}},
|
|
MetricsType: metrics.Prometheus,
|
|
}).Start()
|
|
}
|
|
|
|
func TestStartRequestsFunc(t *testing.T) {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
|
g.Get("http://quotes.toscrape.com/", nil)
|
|
},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
r.HTMLDoc.Find("a").Each(func(_ int, s *goquery.Selection) {
|
|
g.Exports <- s.AttrOr("href", "")
|
|
})
|
|
},
|
|
Exporters: []export.Exporter{&export.JSON{}},
|
|
}).Start()
|
|
}
|
|
|
|
func TestGetRendered(t *testing.T) {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
|
g.GetRendered("https://httpbin.org/anything", g.Opt.ParseFunc)
|
|
},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
fmt.Println(string(r.Body))
|
|
fmt.Println(r.Request.URL.String(), r.Header)
|
|
},
|
|
//URLRevisitEnabled: true,
|
|
}).Start()
|
|
}
|
|
|
|
func TestHEADRequest(t *testing.T) {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
|
g.Head("https://httpbin.org/anything", g.Opt.ParseFunc)
|
|
},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
fmt.Println(string(r.Body))
|
|
},
|
|
}).Start()
|
|
}
|
|
|
|
func TestCookies(t *testing.T) {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"http://quotes.toscrape.com/login"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
if len(g.Client.Cookies(r.Request.URL.String())) == 0 {
|
|
t.Fatal("Cookies is Empty")
|
|
}
|
|
},
|
|
}).Start()
|
|
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"http://quotes.toscrape.com/login"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
if len(g.Client.Cookies(r.Request.URL.String())) != 0 {
|
|
t.Fatal("Cookies exist")
|
|
}
|
|
},
|
|
CookiesDisabled: true,
|
|
}).Start()
|
|
}
|
|
|
|
func TestBasicAuth(t *testing.T) {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
|
req, _ := client.NewRequest("GET", "https://httpbin.org/anything", nil)
|
|
req.SetBasicAuth("username", "password")
|
|
g.Do(req, nil)
|
|
},
|
|
MetricsType: metrics.ExpVar,
|
|
}).Start()
|
|
}
|
|
|
|
func TestRedirect(t *testing.T) {
|
|
defer leaktest.Check(t)()
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"https://httpbin.org/absolute-redirect/1"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
//t.Fail()
|
|
},
|
|
MaxRedirect: -1,
|
|
}).Start()
|
|
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"https://httpbin.org/absolute-redirect/1"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
if r.StatusCode == 302 {
|
|
t.Fail()
|
|
}
|
|
},
|
|
MaxRedirect: 0,
|
|
}).Start()
|
|
}
|
|
|
|
func TestConcurrentRequests(t *testing.T) {
|
|
defer leaktest.Check(t)()
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartURLs: []string{"https://httpbin.org/delay/1", "https://httpbin.org/delay/2"},
|
|
ConcurrentRequests: 1,
|
|
ConcurrentRequestsPerDomain: 1,
|
|
}).Start()
|
|
}
|
|
|
|
// Make sure to increase open file descriptor limits before running
|
|
func BenchmarkRequests(b *testing.B) {
|
|
|
|
// Create Server
|
|
ts := httptest.NewServer(http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
|
|
fmt.Fprint(w, "Hello, client")
|
|
}))
|
|
ts.Client().Transport = client.NewClient(client.DefaultMaxBody, false, client.DefaultRetryTimes, client.DefaultRetryHTTPCodes).Transport
|
|
defer ts.Close()
|
|
|
|
// As we don't benchmark creating a server, reset timer.
|
|
b.ResetTimer()
|
|
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
StartRequestsFunc: func(g *geziyor.Geziyor) {
|
|
// Create Synchronized request to benchmark requests accurately.
|
|
req, _ := client.NewRequest("GET", ts.URL, nil)
|
|
req.Synchronized = true
|
|
|
|
// We only bench here !
|
|
for i := 0; i < b.N; i++ {
|
|
g.Do(req, nil)
|
|
}
|
|
},
|
|
URLRevisitEnabled: true,
|
|
LogDisabled: true,
|
|
}).Start()
|
|
}
|
|
|
|
func BenchmarkWhole(b *testing.B) {
|
|
for i := 0; i < b.N; i++ {
|
|
geziyor.NewGeziyor(&geziyor.Options{
|
|
AllowedDomains: []string{"quotes.toscrape.com"},
|
|
StartURLs: []string{"http://quotes.toscrape.com/"},
|
|
ParseFunc: func(g *geziyor.Geziyor, r *client.Response) {
|
|
g.Exports <- []string{r.Request.URL.String()}
|
|
r.HTMLDoc.Find("a").Each(func(i int, s *goquery.Selection) {
|
|
if href, ok := s.Attr("href"); ok {
|
|
g.Get(r.JoinURL(href), g.Opt.ParseFunc)
|
|
}
|
|
})
|
|
},
|
|
Exporters: []export.Exporter{&export.CSV{}},
|
|
//MetricsType: metrics.Prometheus,
|
|
LogDisabled: true,
|
|
}).Start()
|
|
}
|
|
}
|