㈠ python把爬到的數據放到資料庫(python爬蟲怎麼把爬的數據寫進文件里)
MySQL
是一個關系型資料庫管理系統,由瑞典MySQLAB公司開發,目前屬於Oracle旗下產品。MySQL是最流行的關系型資料庫管理系統之一,在WEB應用方面,MySQL是最好的RDBMS(,關系資料庫管理系統)應用軟體。
MySQL是一種關系資料庫管理系統,關系資料庫將數據保存在不同的表中,而不是將所有數據放在一個大倉庫內,這樣就增加了速度並提高了靈活性。
MySQL所使用的SQL語言是用於訪問資料庫的最常用標准化語言。MySQL軟體採用了雙授權政策,分為社區版和商業版,由於其體積小、速度快、總體擁有成本低,尤其是開放源碼這一特點,一般中小型網站的開發都選擇MySQL作為網站資料庫。
相關推薦:《Python基礎教程》
應用環境
與其他的大型數據孝中源庫例如Oracle、DB2、SQLServer等相比,MySQL自有它的不足之處,但是這絲毫也沒有減少它受歡迎的程度。對於一般的個人使用者和中小型企業來說,MySQL提供的功能已經綽綽有餘,而且由於MySQL是開放源碼軟體,因此可以大大降低總體擁有成本。
MongoDB
是一個基於分布式文件存儲的資料庫。由C語言編寫。旨在為WEB應用提供可擴展的高性能數據存儲解決方案。
MongoDB是一個介於關系資料庫和非關系資料庫之間的產品,是非關系資料庫當中功能最豐富培攜,最像關系資料庫的。它支持的數據結構非常鬆散,是類似json的bson格式,因此可以存儲比較復雜的數據類型。Mongo最大的特點是它支持的查詢語言非常強大,其語法有點類似於面向對象的查詢語言,幾乎可以實現類似關系資料庫單表查詢的絕大部分功能,而且還支持對數據建立索引。
特點
它的特點是高性能、易部署、易使用,存儲數據非常方便。主要功能特性有:
*面向集合存儲,易存儲對象類型的數據。
mongodb集群參考
*模式自由。
*支持動態查詢。
*支持完全索引,包含內部對象。
*支持查詢。
*支持復制和故障恢復。
*使用高效的二進制數據存巧態儲,包括大型對象(如視頻等)。
*自動處理碎片,以支持雲計算層次的擴展性。
*支持RUBY,PYTHON,JAVA,C,PHP,C#等多種語言。
*文件存儲格式為BSON(一種JSON的擴展)。
*可通過網路訪問。
㈡ 2022-04-16 爬蟲day4 <解析網頁-存儲數據>
import requests
import csv
from bs4 import BeautifulSoup
# 設置列表,用以存儲每本書籍的信息
data_list = []
# 設置頁碼 page_number
page_number = 1
# while 循環的條件設置為 page_number 的值是否小於 4
while page_number < 4:
# 設置要請求的網頁鏈接
url = 'https://wp.forchange.cn/resources/page/' + str(page_number)
# 請求網頁
books_list_res = requests.get(url)
# 解析請求到的網頁內容
bs = BeautifulSoup(books_list_res.text, 'html.parser')
# 搜索網頁中所有包含書籍名和書籍鏈接的 Tag
href_list = bs.find_all('氏陪a', class_='post-title')
# 使用 for 循環遍歷搜索結果
for href in href_list:
# 創建字典,用以存儲書籍信息
info_dict = {}
# 提取書籍名
info_dict['書名'] = href.text
# 提取書籍鏈接
book_url = href['href']
# 通過書籍鏈接請求書籍詳情頁
book_list_res = requests.get(book_url)
# 解析書籍詳宴核御情頁的內容
new_bs = BeautifulSoup(book_list_res.text, 'html.parser')
# 搜索網頁中所有包含書籍各項信息的 Tag
info_list = new_bs.find('div', class_='res-attrs').find_all('dl')
# 使用 for 循環遍歷搜索結果
for info in info_list:
# 提取信息的提示項
key = info.find('dt').text[:-2]
# 提取信息的內容
value = info.find('dd').text
晌岩 # 將信息添加到字典中
info_dict[key] = value
# 列印書籍的信息
print(info_dict)
# 存儲每本書籍的信息
data_list.append(info_dict)
# 頁碼 page_number 自增
page_number += 1
# 新建 csv 文件存儲書籍信息
with open('books.csv', 'w') as f:
# 將文件對象轉換成 DictWriter 對象
writer = csv.DictWriter(f, fieldnames=['書名', '作者', '出版社', 'ISBN', '頁數', '出版年', '定價'])
# 寫入表頭與數據
writer.writeheader()
writer.writerows(data_list)
「總是覺得想像中的美好生活就要到了,總是期待著
但實際上,現在經歷的每一件事、體會的每一種情感,
都是我的生活。」
爬蟲好像真的不簡單,但還是希望我可以學會!可以靠自己做出一個個小程序!
㈢ 用爬蟲從網站爬下的數據怎麼存儲
顯然不能直接儲存,你還得解析出自己需要的內容。
比如我爬取某新聞網今日的國內新聞,那麼我創建一個實體類,裡面有屬性:新聞標題,新聞時間,正文等等。解析出你需要的內容,封到實體裡面,然後在層直接save到資料庫即可
如果你爬下的是整個網頁,這個好辦,把它當做文件一樣,用流操作保存到電腦上即可。緩橘當然保存網頁攜局會遇到編碼問題,這個很棘手辯哪讓。
㈣ 爬蟲怎麼將運行結果保存為txt文件
保存到txt: def writeToTxt(list_name,file_path): try: fp = open(file_path,"w+") for item in list_name: fp.write(str(item)+"\n") ##list中岩穗一項佔一行 fp.close() except IOError: print("fail to open file") file_path = '##保存的位置##.txt' writeToTxt(info_stock_information, file_path) 保存到excel: import xlsxwriter workbook = xlsxwriter.Workbook('##新工作表的位置##.xlsx') # 創建一個Excel文件 worksheet = workbook.add_worksheet() # 創建一個工作表粗枯卜對象敗橋 worksheet.write(##行##,##列##, ##保存的東西##) # 寫入 workbook.close() ##做個好學生,隨手關閉excel
㈤ Python爬蟲可以爬取什麼
Python爬蟲可以爬取的東西有很多,Python爬蟲怎麼學?簡單的分析下:
如果你仔細觀察,就不難發現,懂爬蟲、學習爬蟲的人越來越多,一方面,互聯網可以獲取的數據越來越多,另一方面,像 Python這樣的編程語言提供越來越多的優秀工具,讓爬蟲變得簡單、容易上手。
利用爬蟲我們可以獲取大量的價值數據,從而獲得感性認識中不能得到的信息,比如:
知乎:爬取優質答案,為你篩選出各話題下最優質的內容。
淘寶、京東:抓取商品、評論及銷量數據,對各種商品及用戶的消費場景進行分析。
安居客、鏈家:抓取房產買賣及租售信息,分析房價變化趨勢、做不同區域的房價分析。
拉勾網、智聯:爬取各類職位信息,分析各行業人才需求情況及薪資水平。
雪球網:抓取雪球高回報用戶的行為,對股票市場進行分析和預測。
爬蟲是入門Python最好的方式,沒有之一。Python有很多應用的方向,比如後台開發、web開發、科學計算等等,但爬蟲對於初學者而言更友好,原理簡單,幾行代碼就能實現基本的爬蟲,學習的過程更加平滑,你能體會更大的成就感。
掌握基本的爬蟲後,你再去學習Python數據分析、web開發甚至機器學習,都會更得心應手。因為這個過程中,Python基本語法、庫的使用,以及如何查找文檔你都非常熟悉了。
對於小白來說,爬蟲可能是一件非常復雜、技術門檻很高的事情。比如有人認為學爬蟲必須精通 Python,然後哼哧哼哧系統學習 Python 的每個知識點,很久之後發現仍然爬不了數據;有的人則認為先要掌握網頁的知識,遂開始 HTMLCSS,結果入了前端的坑,瘁……
但掌握正確的方法,在短時間內做到能夠爬取主流網站的數據,其實非常容易實現,但建議你從一開始就要有一個具體的目標。
在目標的驅動下,你的學習才會更加精準和高效。那些所有你認為必須的前置知識,都是可以在完成目標的過程中學到的。這里給你一條平滑的、零基礎快速入門的學習路徑。
1.學習 Python 包並實現基本的爬蟲過程
2.了解非結構化數據的存儲
3.學習scrapy,搭建工程化爬蟲
4.學習資料庫知識,應對大規模數據存儲與提取
5.掌握各種技巧,應對特殊網站的反爬措施
6.分布式爬蟲,實現大規模並發採集,提升效率
一
學習 Python 包並實現基本的爬蟲過程
大部分爬蟲都是按「發送請求——獲得頁面——解析頁面——抽取並儲存內容」這樣的流程來進行,這其實也是模擬了我們使用瀏覽器獲取網頁信息的過程。
Python中爬蟲相關的包很多:urllib、requests、bs4、scrapy、pyspider 等,建議從requests+Xpath 開始,requests 負責連接網站,返回網頁,Xpath 用於解析網頁,便於抽取數據。
如果你用過 BeautifulSoup,會發現 Xpath 要省事不少,一層一層檢查元素代碼的工作,全都省略了。這樣下來基本套路都差不多,一般的靜態網站根本不在話下,豆瓣、糗事網路、騰訊新聞等基本上都可以上手了。
當然如果你需要爬取非同步載入的網站,可以學習瀏覽器抓包分析真實請求或者學習Selenium來實現自動化,這樣,知乎、時光網、貓途鷹這些動態的網站也可以迎刃而解。
二
了解非結構化數據的存儲
爬回來的數據可以直接用文檔形式存在本地,也可以存入資料庫中。
開始數據量不大的時候,你可以直接通過 Python 的語法或 pandas 的方法將數據存為csv這樣的文件。
當然你可能發現爬回來的數據並不是干凈的,可能會有缺失、錯誤等等,你還需要對數據進行清洗,可以學習 pandas 包的基本用法來做數據的預處理,得到更干凈的數據。
三
學習 scrapy,搭建工程化的爬蟲
掌握前面的技術一般量級的數據和代碼基本沒有問題了,但是在遇到非常復雜的情況,可能仍然會力不從心,這個時候,強大的 scrapy 框架就非常有用了。
scrapy 是一個功能非常強大的爬蟲框架,它不僅能便捷地構建request,還有強大的 selector 能夠方便地解析 response,然而它最讓人驚喜的還是它超高的性能,讓你可以將爬蟲工程化、模塊化。
學會 scrapy,你可以自己去搭建一些爬蟲框架,你就基本具備爬蟲工程師的思維了。
四
學習資料庫基礎,應對大規模數據存儲
爬回來的數據量小的時候,你可以用文檔的形式來存儲,一旦數據量大了,這就有點行不通了。所以掌握一種資料庫是必須的,學習目前比較主流的 MongoDB 就OK。
MongoDB 可以方便你去存儲一些非結構化的數據,比如各種評論的文本,圖片的鏈接等等。你也可以利用PyMongo,更方便地在Python中操作MongoDB。
因為這里要用到的資料庫知識其實非常簡單,主要是數據如何入庫、如何進行提取,在需要的時候再學習就行。
五
掌握各種技巧,應對特殊網站的反爬措施
當然,爬蟲過程中也會經歷一些絕望啊,比如被網站封IP、比如各種奇怪的驗證碼、userAgent訪問限制、各種動態載入等等。
遇到這些反爬蟲的手段,當然還需要一些高級的技巧來應對,常規的比如訪問頻率控制、使用代理IP池、抓包、驗證碼的OCR處理等等。
往往網站在高效開發和反爬蟲之間會偏向前者,這也為爬蟲提供了空間,掌握這些應對反爬蟲的技巧,絕大部分的網站已經難不到你了.
六
分布式爬蟲,實現大規模並發採集
爬取基本數據已經不是問題了,你的瓶頸會集中到爬取海量數據的效率。這個時候,相信你會很自然地接觸到一個很厲害的名字:分布式爬蟲。
分布式這個東西,聽起來很恐怖,但其實就是利用多線程的原理讓多個爬蟲同時工作,需要你掌握 Scrapy + MongoDB + Redis 這三種工具。
Scrapy 前面我們說過了,用於做基本的頁面爬取,MongoDB 用於存儲爬取的數據,Redis 則用來存儲要爬取的網頁隊列,也就是任務隊列。
所以有些東西看起來很嚇人,但其實分解開來,也不過如此。當你能夠寫分布式的爬蟲的時候,那麼你可以去嘗試打造一些基本的爬蟲架構了,實現一些更加自動化的數據獲取。
你看,這一條學習路徑下來,你已然可以成為老司機了,非常的順暢。所以在一開始的時候,盡量不要系統地去啃一些東西,找一個實際的項目(開始可以從豆瓣、小豬這種簡單的入手),直接開始就好。
因為爬蟲這種技術,既不需要你系統地精通一門語言,也不需要多麼高深的資料庫技術,高效的姿勢就是從實際的項目中去學習這些零散的知識點,你能保證每次學到的都是最需要的那部分。
當然唯一麻煩的是,在具體的問題中,如何找到具體需要的那部分學習資源、如何篩選和甄別,是很多初學者面臨的一個大問題。
以上就是我的回答,希望對你有所幫助,望採納。
㈥ 爬蟲是什麼
爬蟲技術是一種自動化程序。
爬蟲就是一種可以從網頁上抓取數據信息並保存的自動化程序,它的原理就是模擬瀏覽器發送網路請求,接受請求響應,然後按照一定的規則自動抓取互聯網數據。
搜索引擎通過這些爬蟲從一個網站爬到另一個網站,跟蹤網頁中的鏈接,訪問更多的網頁,這個過程稱為爬行,這些新的網址會被存入資料庫等待搜索。簡而言之,爬蟲就是通過不間斷地訪問互聯網,然後從中獲取你指定的信息並返回給你。而我們的互聯網上,隨時都有無數的爬蟲在爬取數據,並返回給使用者。
爬蟲技術的功能
1、獲取網頁
獲取網頁可以簡單理解為向網頁的伺服器發送網路請求,然後伺服器返回給我們網頁的源代碼,其中通信的底層原理較為復雜,而Python給我們封裝好了urllib庫和requests庫等,這些庫可以讓我們非常簡單的發游沖送各種形式的請求。
2、提取信息
獲取到的網頁源碼內包含了很多信息,想要進提取到我們需要的信息,則需要對源碼還要做進一步篩選。可以選用python中的re庫即通過正則匹配的形式去提取信息,也可以採用BeautifulSoup庫(bs4)等解析源代碼,除了有自動編碼的優勢之外,bs4庫還可以結構化輸出源賣升代碼信息,更易於理解與使用。
3、保存數據
提取到我們需要中磨老的有用信息後,需要在Python中把它們保存下來。可以使用通過內置函數open保存為文本數據,也可以用第三方庫保存為其它形式的數據,例如可以通過pandas庫保存為常見的xlsx數據,如果有圖片等非結構化數據還可以通過pymongo庫保存至非結構化資料庫中。
㈦ 爬蟲都可以干什麼
python是一種計算機的編程語言,是這么多計算機編程語言中比較容易學的一種,而且應用也廣,這python爬蟲是什麼意思呢?和IPIDEA全球http去了解一下python爬蟲的一些基礎知識。
一、python爬蟲是什麼意思
爬蟲:是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。
即:打開一個網頁,有個工具,可以把網頁上的內容獲取下來,存到你想要的地方,這個工具就是爬蟲。
Python爬蟲架構組成:
1.網頁解析器,將一個網頁字元串進行解析,可以按照我們的要求來提取出我們有用的信息,也可以根據DOM樹的解析方式來解析。
2.URL管理器:包括待爬取的URL地址和已爬取的URL地址,防止重復抓取URL和循環抓取URL,實現URL管理器主要用三種方式,通過內存、資料庫、緩存資料庫來實現。
3.網頁下載器:通過傳入一個URL地址來下載網頁,將網頁轉換成一個字元串,網頁下載器有urllib2(Python官方基礎模塊)包括需要登錄、代理、和cookie,requests(第三方包)
4.調度器:相當於一台電腦的CPU,主要負責調度URL管理器、下載器、解析器之間的協調工作。
5.應用程序:就是從網頁中提取的有用數據組成的一個應用。
二、爬蟲怎麼抓取數據
1.抓取網頁
抓取網頁有時候需要模擬瀏覽器的行為,很多網站對於生硬的爬蟲抓取都是封殺的。這是我們需要模擬user agent的行為構造合適的請求,比如模擬用戶登陸、模擬session/cookie的存儲和設置。
2.抓取後處理
抓取的網頁通常需要處理,比如過濾html標簽,提取文本等。python的beautifulsoap提供了簡潔的文檔處理功能,能用極短的代碼完成大部分文檔的處理。
其實以上功能很多語言和工具都能做,但是用python能夠幹得最快,最干凈。上文介紹了python爬蟲的一些基礎知識,相信大家對於「python爬蟲是什麼意思」與「爬蟲怎麼抓取數據」有一定的的認識了。現在大數據時代,很多學python的時候都是以爬蟲入手,學習網路爬蟲的人越來越多。通常使用爬蟲抓取數據都會遇到IP限制問題,使用高匿代理,可以突破IP限制,幫助爬蟲突破網站限制次數。
㈧ 爬取下來的數據選擇什麼存儲方式會更好
如果你是小說站,且文章數量超過幾十萬那數信敬么用文本存坦或儲。。一般來說,文章數量大,且不需要經常生成或者是調薯慎用的話,那麼就用文本存儲,其實就是text文檔存儲啦。
㈨ 爬蟲解決反爬後怎麼存儲文件夾
方法如下:
1、使用open方法寫入文件保存數據到txt。
2、將上述爬取的列灶春表數據保存到txt文件。
3、保存數據到答辯腔csv,寫入列表或者元組數據:創建writer對象,使用writerow寫入一行數據,使用writerows方法寫入多行數據。
4、將上述清衫爬取到的數據保存到csv文件中即可。
㈩ python爬蟲數據存到非本地mysql
pymysql 基本使用 八個步驟以及案例分析
一.導入pymysql模塊
導入pymysql之前需要先安裝pymysql模塊
方法一:直接在pycharm編譯器裡面輸入 pip install pymysql
方法二:win+r --> 輸入cmd -->在裡面輸入差局pip install pymysql
ps:在cmd中輸入pip list後回車 可以找到安裝的pymysql就表示安裝成功了
1
2
3
4
5
6
1
2
3
4
5
6
在pycharm編譯器中導入
import pymysql
1
2
1
2
二.獲取到database的鏈接對象
coon = pymysql.connect(host='127.0.0.1', user='root', password='123456', database='pymysql_test')
1
1
user:是你的資料庫用戶名
password:資料庫密碼
database:你已經創建好的資料庫
1
2
3
1
2
3
三.創建數據表的方法
cursor.execute(
'''create table if not exists pets(id int primary key auto_increment,
src varchar(50),
skill varchar(100)''')
1
2
3
4
1
2
3
4
四.獲取執行sql語句的游標對象
cousor = coon.cousor()
1
1
五.定義要執行的sql語句
1.sql的增加數據的方法
sql = '''insert into test_mysql(id,src,skill) values(%d,%s,%s)'''
1
1
ps: test_mysql 是你連接到的資料庫中拆世的一張表
id,src,skill 這個是你創建表時所定義的欄位關鍵字
%d,%s,%s 這個要根據你創建的欄位關鍵字的類型而定,記住要一一對應
1
2
3
1
2
3
2.sql的刪除數據的方法
sql_1 = '''delete from test_mysql where src=%s;'''
1
1
3.sql的修改數據方法
sql_2 = '''update test_mysql set src=%s where skill=%s;'
1
1
4.sql的查詢方法
sql_3 = '''select * from test_mysql where skill = %s'''
1
1
六.通過游標對象執行sql語句
1.執行增加數據的sql語句
cousor.execute(sql, [2, 'www.sohu.com', '000000'])
運行後在旅慶肢mysql的可視化後台就可以直觀的添加的數據
1
2
1
2
2.執行刪除數據sql語句
new = 'www..com'
cousor.execute(sql_1, [new])
PS:這里就是根據sql語句where後面的條件進行刪除對應的數據
要記住傳入的數據要與sql的where後面條件匹配
1
2
3
4
1
2
3
4
3.執行修改數據的sql語句
url = 'www..com'
pwd = '666666'
cousor.execute(sql_2,[pwd,url])
1
2
3
1
2
3
4.執行查詢數據的sql語句
result1 = cousor.fetchone()
fetchone() 查詢=整個表中的第一條數據,
如果再次使用就會查找到第二條數據,
還可以在括弧內輸入id值查詢到相應的數據
result2 = cousor.fetchmany()
fetchmany()查詢到表裡的多條數據,
在括弧里輸入幾就會查找到表的前幾條數據
result2 = cousor.fetchall()
fetchall()查詢到sql查詢匹配到的所有數據
print(result)
用print輸出語句就能直接列印輸出所查詢到的數據
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
**總結: 在執行sql語句要傳入參數時,這個參數要以列表或者元組的類型傳入**
1
1
七.關閉游標對象
cousor.close()
1
1
八.關閉資料庫的鏈接對象
coon.cousor()
1
1
九.洛克王國寵物數據抓取案例
import requests
import pymysql
from lxml import etree
from time import sleep
# 資料庫鏈接
conn = pymysql.connect(host='127.0.0.1', user='root', password='123456', database='pymysql')
cursor = conn.cursor()
# 執行一條創建表的操作
cursor.execute(
'''create table if not exists pets(id int primary key auto_increment,name varchar(50),src varchar(100),instry text)''')
url = 'http://news.4399.com/luoke/luokechongwu/'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
response.encoding = 'gbk'
html = response.text
# print(html)
# 寵物名稱
# 寵物圖片(圖片在 lz_src)
# 寵物技能(跳轉詳細頁)
tree = etree.HTML(html)
li_list = tree.xpath('//ul[@id="cwdz_list"]/li') # 所有的寵物
for li in li_list:
name = li.xpath('./@name')[0] # 每一個寵物的名稱
src = 'http:' + li.xpath('./a/img/@lz_src')[0] # 圖片鏈接
link = 'http://news.4399.com' + li.xpath('./a/@href')[0] # 寵物的詳細鏈接
instry = [] # 數組裡面存放每一個對象,每一個對象就是一個技能
# 對詳細鏈接發起請求,獲取技能
try:
detail_resp = requests.get(url=link, headers=headers)
sleep(0.5)
detail_resp.encoding = 'gbk'
detail_tree = etree.HTML(detail_resp.text)
# 技能
skills = detail_tree.xpath('/html/body/div[5]/div[2]/div[2]/div[1]/div[1]/table[4]/tbody/tr')
del skills[0]
del skills[0]
for skill in skills:
item = {}
item['name'] = skill.xpath('./td[1]/text()')[0] # 技能
item['grade'] = skill.xpath('./td[2]/text()')[0] # 等級
item['property'] = skill.xpath('./td[3]/text()')[0] # 屬性
item['type'] = skill.xpath('./td[4]/text()')[0] # 類型
item['target'] = skill.xpath('./td[5]/text()')[0] # 目標
item['power'] = skill.xpath('./td[6]/text()')[0] # 威力
item['pp'] = skill.xpath('./td[7]/text()')[0] # pp
item['result'] = skill.xpath('./td[8]/text()')[0] # 效果
instry.append(item)
# print(instry)
# 數據保存 (mysql)
sql = '''insert into pets(name,src,instry) values (%s,%s,%s);'''
cursor.execute(sql, [name, src, str(instry)])
conn.commit()
print(f'{name}--保存成功!')
except Exception as e:
pass
cursor.close()
conn.close()
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
十.總結
本章內容主要是給大家講解一下在爬蟲過程中如何將數據保存mysql資料庫中去,
最後面這個案例就是一個示範,希望這篇文章能給大家帶來幫助,都看到這里了給
個三連支持一下吧!!!
1
2
3
1
2
3