Les défis de la reconnaissance optique de caractères traditionnelle

Explore in:

Alors que les organisations passent de plus en plus au travail à distance, le traitement de documents est devenu essentiel à la poursuite des fonctions commerciales. En l’absence de bureau physique centralisé voué au travail, les documents imprimés et physiques deviennent, tout naturellement, de moins en moins un atout mais plutôt un inconvénient, tout comme le processus de numérisation de toutes ces informations. Alors que nous allons vers une ère de plus en plus numérique, tête la première actuellement en raison de la pandémie de COVID-19, la transformation de ces rames de papier en code est devenue essentielle, que ce soit manuellement ou par le biais de moyens avancés, tels que la technologie de reconnaissance optique de caractères.

reconnaissance optique de caractères

C’est une tâche laborieuse mais nécessaire. On ne réalise pas toujours que même les fonctionnalités commerciales les plus fondamentales s’appuient sur des documents physiques jusqu’à ce que l’on soit confronté à un environnement de travail en numérique sans ces mêmes documents. Les mémos de communication au sein des bureaux, la documentation des clients, les acquisitions, la comptabilité – tous dépendent encore et toujours du papier (ou plutôt, de nos jours : texte numérique, numérisé, encore et toujours).

C’est dans ce contexte que surgit la technologie de reconnaissance de caractère. On parle aussi parfois de lecteurs de caractères ou on utilise plus simplement le signe OCR, qui désigne la reconnaissance optique de caractères. Dans tous les cas, il s’agit de l’usage de machines pour convertir des images de documents en données numériques. Au lieu de recréer manuellement le document sous une forme numérique, les lecteurs optiques de caractères procèdent au scannage d’un document et le traduisent automatiquement en un nouveau support. C’est un gain de temps et, souvent, une bouée de sauvetage.

Alors même que les avantages de la numérisation sont évidents (collaboration renforcée, adoption de l’automatisation, économie d’espace et de temps), il est aussi certain que les difficultés et accrocs abondent. Après tout, seuls les êtres humains disposent de formidables capacités de lecture, écriture et raisonnement. Les ordinateurs sont excellents dans l’analyse simple qui n’exige aucune pensée critique sur ce qu’il faut inclure ou non, sur ce qui est essentiel ou encore, sur ce qui semble être une erreur. Même en notre ère numérique en plein essor, les analystes de données ont toujours besoin de tenir les commandes d’ordinateurs, au sens figuré, et leur donner des ordres exacts et bien spécifiques.

Le traitement de documents, même s’il est réalisé machinalement, repose sur l’interaction avec l’analyse humaine, pour garantir que les produits finaux sont, de fait, conformes. Les lecteurs optiques de caractères traditionnels sont notoirement lents et ne s’adaptent pas très bien aux données complexes. Plusieurs d’entre eux ne s’embarrassent même pas à convertir des documents en quelque chose d’interactif avec leur nouvelle interface. Et même si c’est le cas, la quantité de travail humain exigé pour résoudre ces problèmes anéantira, de nouveau, le gain de temps obtenu. Heureusement, de nouvelles solutions sont actuellement créées, en particulier pour résoudre ces difficultés de l’OCR traditionnel.

Enjeux des outils traditionnels de reconnaissance optique de caractères

L’introduction du premier lecteur optique de caractères—l’optophone d’Edmund Fournier en 1917— et les innovations ultérieures ont été un marqueur important dans les transitions précoces vers des solutions de base technique pour les documents. Il est évident que ces solutions étaient et restent assez élémentaires, par rapport aux normes de reconnaissance optique de caractères, exigées au XXIe siècle. 

Les créateurs et innovateurs ont conçu les OCR originaux afin d’aider les non-voyants et de trier de simples documents, comme ce fut le cas du processus de triage du courrier des services postaux américains.  Leurs capteurs de reconnaissance optique pouvaient traiter les lettres de l’alphabet latin ainsi que les chiffres romains fondamentaux.

Malheureusement, malgré ces avancées précoces, les outils de reconnaissance optique de caractères ont ces derniers temps la réputation d’être terriblement lents et stagnants. La technologie OCR a à peine évolué ces dix dernières années, faisant ainsi que les dispositifs dépendants de ses fonctionnalités sont très lents. Pensons, par exemple, à l’omniprésence de simples scanners plats dans les bureaux qui, en tant qu’outils, n’ont pas fait l’objet de réelles mises à jour.

La raison de cette stagnation est un manque de motivation à adopter cette technologie de traitement de documents. Les organisations qui s’appuient sur OCR n’ont trouvé aucune véritable raison pour changer les systèmes en place, supportant ainsi leurs défaillances, car ils les trouvent « suffisants ».

Les anciens outils de reconnaissance optique de caractère sont, en fait, assez gourmands en ressources. Les organisations doivent investir à l’excès dans des ressources humaines et des techniques à la seule fin que le traitement de documents soit viable, mais ils l’ont fait pendant tellement de temps qu’ils se sont habitués au blocage et à l’inefficacité.

Au quotidien, les dispositifs OCR exigent beaucoup de rapidité de traitement et de stockage virtuel. Cela se traduit par des systèmes lourds et lents, incapables de scanner efficacement de gros volumes de documents. Dans de nombreuses situations, lorsqu’un département a besoin de traiter d’énormes quantités de documents, tous les lecteurs optiques de caractères sont dédiés à cette tâche, c’est-à-dire qu’aucun autre département ne peut y accéder au cours de cette période.

Les anciens outils de reconnaissance optique de caractères sont également et notoirement inadaptés si les images des documents ne sont pas claires comme du cristal. Le scannage de documents de faible qualité produit, en général, des résultats de faible qualité. Nous en avons tous eu l’expérience. Cependant, il est irréaliste d’espérer qu’une organisation ne traitera en permanence que des médias de haute qualité.

Les organisations qui utilisent la technologie OCR finissent par investir dans des équipes d’experts dont l’unique tâche est de vérifier les documents traités pour trouver des inexactitudes et les corriger. À ce stade, on traite deux fois les documents – une première fois par la machine et une deuxième pour s’assurer que la machine a bien fait son travail.

On pourrait penser qu’il est aisé de résoudre ces problèmes. Néanmoins, mettre au goût du jour d’anciens outils de reconnaissance optique de caractères est également un souci, car ils sont souvent intégrés avec une gamme supplémentaire d’investigation informatique. La logique veut que toute amélioration apportée à l’un des services doive être étendue à toute solution dans cet ensemble. Cependant, dans la pratique, la carence d’un outil OCR dédié signifie qu’il faudra se confronter à des blocages inutiles tout en étant incapable de le mettre à jour, le cas échéant.

Panne de moteur pour interpréter des données complexes

reconnaissance optique de caractères

C’est le moteur des technologies de reconnaissance optique de caractères qui est souvent à l’origine de l’échec de celles-ci à traiter les données complexes qui leur sont présentées.

C’est le cas lorsque les outils doivent analyser des formes complexes d’entrées. Tout écart par rapport aux entrées préétablies, par exemple, des textes écrits sur une ligne, donnera lieu à un rejet ou à une mauvaise traduction. Et cela ne vaut pas seulement dans le cas d’un écart : c’est également le cas si un bloc de texte est juste trop long. Les outils de reconnaissance optique de caractères ignorent souvent et à tort, une partie s’ils ne reconnaissent pas immédiatement le modèle.

Ainsi, il existe un manque de support du moteur pour les différents formats de document. À titre d’exemple, la plupart des lecteurs optiques de caractères sont en mesure de reconnaître des textes imprimés et de les convertir en données binaires appropriées. Cependant, ces lecteurs acceptent mal les documents manuscrits, rajoutant ainsi un problème majeur lorsque la plupart des rapports commerciaux officiels exigent les signatures manuscrites afin d’être vérifiés.

Autre exemple : l’analyse financière contemporaine. Elle dépend principalement de diagrammes et de tableaux pour l’organisation des données. Malheureusement, la plupart des solutions OCR ne peuvent pas traiter ce genre d’informations, car un simple tableau contient de nombreuses lignes de marquage de colonnes, cellules et rangées. Les diagrammes traités finissent criblés d’erreurs pour ensuite être corrigés manuellement.

Les solutions OCR manquent également de reconnaissance de la sémantique et ne sont pas en mesure de traiter des valeurs inutiles telles que les espaces laissés en blanc. Elles ne font pas la différence entre un texte normal et une entrée erronée, présentant, à la place, toutes les informations avec la même précision. Une erreur typographique sur un document finit scannée et saisie par le moteur comme une véritable donnée. Cela signifie qu’un analyste commercial ne peut pas se fier aux solutions de reconnaissance optique de caractères pour corriger les informations documentées.

La manière conventionnelle de manipuler des données confuses à l’aide de solutions OCR a toujours produit plusieurs résultats. L’objectif était que les analystes puissent comparer plusieurs versions produites par un ordinateur après avoir réalisé chaque scan. Cela s’avère complètement inutile, car l’analyste humain passe alors des heures, voire des jours, à revoir les résultats d’un simple scan pour ensuite établir le but visé à l’origine.

Et pourtant, malgré tous les problèmes connus, la plupart des secteurs d’activité et des organisations continuent à exploiter le moteur OCR comme la solution ultime de collecte des données. Et cela ne vient pas du fait que les anciens outils de reconnaissance optique de caractères pour scanner des documents sont devenus plus faciles à utiliser ces dernières années. Certains pourraient même dire que les fonctions d’OCR traditionnelles sont encore pires aujourd’hui, en raison de la complexité et de la masse des documents commerciaux de nos jours. La technologie OCR produit toujours un résultat de faible qualité lorsqu’elle est utilisée pour des besoins actuels de saisie de données. Il s’agit plutôt d’un manque de connaissance. La plupart des entreprises ne sont, tout simplement, pas au courant qu’il existe, de nos jours, des alternatives hybrides bien plus agiles.

Les processeurs de documents doivent être en mesure de saisir des données dotées de différents niveaux de complexité. Ils doivent également être en mesure de détecter des erreurs pour éviter de faire perdre du temps et des ressources à une organisation. Les heures ou les jours perdus à corriger des erreurs primaires et secondaires seraient bien mieux utilisés à gérer d’autres tâches essentielles qui peuvent être automatisées ou informatisées, comme la réelle prise de décision.

Manque de compatibilité entre les plateformes

Même si un processeur parvient à traduire les documents sans grands inconvénients, les données traitées ne sont pas meilleures que les données elles-mêmes. L’incapacité à traiter le résultat saisi par un logiciel tiers, par exemple, ou l’incapacité d’être sensible au facteur temps met des bâtons dans les roues au processus. Le processus d’extraction de données en devient assez complexe et coûteux.

Et alors pourquoi ne pas s’interroger, compte tenu du double travail généré par des outils traditionnels et déficients de reconnaissance optique de caractères, sur la pertinence de se limiter à un processus totalement manuel lequel, de toute manière, ne peut être réalisé d’une autre façon. Les organisations modernes se confrontent à de grandes quantités de données de clients au quotidien. La plupart de ces informations doivent être traitées manuellement en extrayant des données utiles lesquelles ont été converties en langage mécanisable pour plus d’analyse. En soi, ces opérations peuvent prendre des jours ou des semaines de travail manuel.

Les entreprises pourraient passer un temps irréaliste à saisir et à traiter des documents, entièrement de manière manuelle – l’inéluctabilité de la corruption ou de la fatigue de l’être humain rendant cette opération très risquée. Les méthodes de saisie manuelle des données sont également susceptibles de présenter des erreurs ; ce qui peut supposer une gestion pauvre de la qualité et des incohérences au niveau du résultat. Lorsqu’une erreur coûteuse a lieu, par exemple la perte de registres du client, les investisseurs dépensent des sommes importantes. Le traitement manuel oblige les organisations à investir des sommes considérables dans des solutions physiques de stockage de données, lesquelles sont susceptibles de se corrompre. Ces dispositifs prennent beaucoup de place, or cette dernière est une denrée chère dans les zones métropolitaines.

De plus, d’ici à ce que l’équipe d’analyse de données ait effectué l’extraction et le nettoyage des valeurs, les informations peuvent être périmées, rendant tout effort complètement inutile. Pensez aux différentes manières dont le temps passé à saisir et traiter des données peut rendre les services de base inutiles. Par exemple, il n’est pas raisonnablement réaliste de procéder à une vérification manuelle des identités pour accéder à des installations privées. Ou pensez à la détection du blanchiment d’argent, qui doit être rapide, efficace et précise pour que les investisseurs puissent injecter des ressources dans les institutions et organisations. Chaque minute, les établissements financiers contemporains vérifient des milliers, voire des millions d’utilisateurs finaux. Il est tout simplement impossible de saisir des données et de les traiter manuellement à partir de tous ces documents.

Certaines organisations essaient de contourner ces problèmes en élaborant des solutions complexes, sur mesure, de saisie et de traitement de données. Malheureusement, ces systèmes grossissent la portée d’un projet et entraînent des coûts trop importants. La solution pour le traitement, l’analyse et l’automatisation de documents réside ailleurs. Il faut des solutions qui minimisent tant le traitement manuel que les complications liées à la solution OCR.

Intégrer DocDigitizer – la solution hybride

Heureusement, des solutions plus modernes de reconnaissance optique de caractères existent actuellement, surtout pour combattre ces inefficacités. DocDigitizer est un outil hybride de traitement de documents qui mélange l’apprentissage automatique et les pratiques humaines pour les solutions no-code ou d’automatisation robotisée des processus (RPA). Les cadres composés de DocDigitizer associent délibérément les bénéfices des approches antérieures : l’interopérabilité de la solution no-code, la flexibilité du RPA, la vitesse de l’apprentissage automatique et la précision de la touche humaine.

La capture intelligente de données signifie que vous n’aurez plus besoin de vous soucier de la conversion de documents de faible qualité en fiches numérisées. DocDigitizer s’appuie sur « l’apprentissage approfondi » automatique en vue d’établir des concepts d’informations au moment du scannage de médias fixes. Tout comme les êtres humains traitent et retiennent les informations pour un usage futur, « l’apprentissage approfondi » permet à la machine, non seulement de traiter les documents, mais également de retenir les informations et d’apprendre à partir de nouveaux modèles. Le traitement intelligent de documents permet à votre organisation de travailler avec des données structurées et non structurées de manière efficace, en vous octroyant une avance sur vos concurrents.

DocDigitizer reconnaît également une variété de formats de documents afin que vous n’ayez pas à vous soucier de savoir si la solution prend en charge des fichiers préparés en utilisant des services de tiers. Les modules IA garantissent que le service peut accueillir des formats qui n’étaient pas codés en dur sur la plateforme à l’origine.

Cet effort stratégique propose la meilleure des pratiques manuelles technologiques, tout en atténuant les écueils de chacune. Les solutions hybrides et agiles telles que DocDigitizer permettent à votre entreprise d’être le leader du secteur en matière de traitement de documents.