Back to Search Start Over

Automatická extrakce informací ze skenovaných dokumentů

Authors :
Petr Neduchal
Lukáš Bureš
Luděk Müller
Source :
Speech and Computer ISBN: 9783030602758, SPECOM
Publication Year :
2020
Publisher :
Springer, 2020.

Abstract

Tento článek se zabývá úkolem extrakce informací ze strukturovaného dokumentu skenovaného běžným kancelářským skenerem. Zkoumá přístupy zpracování naskenovaných papírových dokumentů a extrakci hledaných informací, jako jsou jména, adresy, data a další číselné hodnoty. Představujeme návrh systému rozděleného do čtyř po sobě jdoucích modulů: předzpracování, optické rozpoznávání znaků, extrakce informací pomocí databáze a extrakce informací bez databáze. V modulu předzpracování jsou představeny dvě základní techniky - zlepšení kvality obrazu a odklonění obrazu. Řešení optického rozpoznávání znaků a přístupy k extrakci informací jsou porovnávány pomocí výkonu celého systému. Nejlepší výkon extrakce informací s databází byl získán algoritmem Locality-sensitive Hashing. This paper deals with the task of information extraction from a structured document scanned by an ordinary office scanner device. It explores the processing pipeline from scanned paper documents to the extraction of searched information such as names, addresses, dates, and other numerical values. We propose system design decomposed into four consecutive modules: preprocessing, optical character recognition, information extraction with a database, and information extraction without a database. In the preprocessing module, two essential techniques are presented – image quality improvement and image deskewing. Optical Character Recognition solutions and approaches to information extraction are compared using the whole system performance. The best performance of information extraction with the database was obtained by the Locality-sensitive Hashing algorithm.

Details

Language :
English
ISBN :
978-3-030-60275-8
ISBNs :
9783030602758
Database :
OpenAIRE
Journal :
Speech and Computer ISBN: 9783030602758, SPECOM
Accession number :
edsair.doi.dedup.....82512e0bc806fd6d8a16830251ddc450