Поскольку доступного API к данным ЕВРОСТАТА нет, каждый запрос должен создаваться вручную.Я нашел это оглавление и хочу извлечь его в JSON с возможностью поиска. В файле есть заголовки разделов, и на каждом листе есть 3 ссылки, но как я могу соединить ссылки, заголовки и разделы в JSON?
У меня есть этот базовый код:
PDFFile = open("table_of_contents_en.pdf",'rb')
PDF = PyPDF2.PdfFileReader(PDFFile)
pages = PDF.getNumPages()
key = '/Annots'
uri = '/URI'
ank = '/A'
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
И это для текста:
pdfFileObj = open('table_of_contents_en.pdf', 'rb')
pdfReader = PyPDF2.PdfFileReader(pdfFileObj)
print(pdfReader.numPages)
pageObj = pdfReader.getPage(0)
print(pageObj.extractText())
pdfFileObj.close()
и это для загрузки молнии:
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
if str(u[ank].keys()).find(".tsv.gz") != -1 :
url = str(u[ank].keys())
r = requests.get(url, allow_redirects=True)
print(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0])
open(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0]), 'wb').write(r.content)
Но как я могу сделать это в то же время правильно, в некоторых структурированных данных?