本篇文章給大家分享的是有關(guān)如何在python中提取PDF文本,小編覺得挺實(shí)用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
做網(wǎng)站、成都網(wǎng)站制作的關(guān)注點(diǎn)不是能為您做些什么網(wǎng)站,而是怎么做網(wǎng)站,有沒有做好網(wǎng)站,給創(chuàng)新互聯(lián)一個(gè)展示的機(jī)會(huì)來證明自己,這并不會(huì)花費(fèi)您太多時(shí)間,或許會(huì)給您帶來新的靈感和驚喜。面向用戶友好,注重用戶體驗(yàn),一切以用戶為中心。首先,我們讀入一些模塊,以進(jìn)行文件操作。
import glob import os
演示目錄下,有兩個(gè)文件夾,分別是pdf和newpdf。
我們指定 pdf 文件所在路徑為其中的pdf文件夾。
pdf_path = "pdf/"
我們希望獲得所有 pdf 文件的路徑。用glob,一條命令就能完成這個(gè)功能。
pdfs = glob.glob("{}/*.pdf".format(pdf_path))
看看我們獲得的 pdf 文件路徑是否正確。
pdfs
['pdf/復(fù)雜系統(tǒng)仿真的微博客虛假信息擴(kuò)散模型研究.pdf', 'pdf/面向影子分析的社交媒體競(jìng)爭(zhēng)情報(bào)搜集.pdf', 'pdf/面向人機(jī)協(xié)同的移動(dòng)互聯(lián)網(wǎng)政務(wù)門戶探析.pdf']
經(jīng)驗(yàn)證。準(zhǔn)確無誤。
下面我們利用 pdfminer 來從 pdf 文件中抽取內(nèi)容。我們需要從輔助 Python 文件 pdf_extractor.py 中讀入函數(shù) extract_pdf_content。
from pdf_extractor import extract_pdf_content
用這個(gè)函數(shù),我們嘗試從 pdf 文件列表中的第一篇里,抽取內(nèi)容,并且把文本保存在 content 變量里。
content = extract_pdf_content(pdfs[0])
顯然,內(nèi)容抽取并不完美,頁(yè)眉頁(yè)腳等信息都混了進(jìn)來。不過,對(duì)于我們的許多文本分析用途來說,這無關(guān)緊要。
以上就是如何在python中提取PDF文本,小編相信有部分知識(shí)點(diǎn)可能是我們?nèi)粘9ぷ鲿?huì)見到或用到的。希望你能通過這篇文章學(xué)到更多知識(shí)。更多詳情敬請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。