【日本語手書き編 – 自動文字検出・抽出OCR】連続文字判定:横書き・縦書き(ひらがな・カタカナ・漢字・ローマ字・、点・。丸)+再学習

【日本語手書き編 - 自動文字検出・抽出OCR】連続文字判定:横書き・縦書き(ひらがな・カタカナ・漢字・ローマ字・、点・。丸)+再学習

 

【動画】日本語 – 手書き編:自作OCR開発

 

 

【日本語 – 手書き編 #4】
OCRに挑戦:横書き・縦書き文字認識 +再学習
(平仮名・片仮名・漢字・ローマ字・点・丸)- Japanese handwritten character OCR


視聴時間:12分14秒

 




 

【動画の内容】

ステップ4:オリジナルOCRプログラミング(日本語手書き)
0:00 事前準備
0:53 学習済みモデルの準備
1:20 学習済みモデルのアップロード
2:09 OCR画像アップロード
3:21 日本語フォントのインストール
3:39 OCR実行
6:55 個別文字検出画像のダウンロード方法
8:58 再学習とOCRプログラムの注意点
11:23 おわりに

 

【ステップ4:日本語手書き用OCRプログラミング – 横書き・縦書き文字認識 +再学習(学習機能付き)】
Python・OpenCV・Kerasで日本語手書きの横書き・縦書き文章をOCR(ひらがな・カタカナ・漢字・ローマ字・、点・。丸)。
機械学習プログラムを応用して、日本語用の自作OCRを作成してみましょう。

既存のOCRプログラムで日本語の手書き文字の画像認識をしてみても、思ったよりも上手く行かない経験をされる方もいるのではないかと思います。
一連のプログラムが、これから、日本語をはじめとしたOCRに挑戦したい方の参考になることがありましたら幸いです。

Japanese handwritten character OCR Edition(Basic)
Introduction to Continuous Japanese handwritten character Image Recognition Python Programming.

 

 

日本語手書き文字画像・学習済みモデル・サンプルコードリンク:日本語の連続文字画像認識プログラム用

 

 

今回のプログラムでは、以下のサンプル画像

 

日本語手書き文字検出・OCR用サンプル画像


日本語手書き文字検出やOCR用のサンプル画像です。
画像には、「ひらがな」「カタカナ」「漢字」「ローマ字」「、点」「。丸」が含まれます。

 

内の

 

・「H5_tegaki.png」(線+ノイズが入った傾いた文章の横書き日本語文字画像)
H5_tegaki.png:【横書き】角度補正+文字検出のプログラム用サンプル画像 - 日本語の連続文字画像認識プログラム

・「V5_tegaki.png」(線+ノイズが入った傾いた文章の縦書き日本語文字画像)
V5_tegaki.png:【縦書き】角度補正+文字検出のプログラム用サンプル画像 - 日本語の連続文字画像認識プログラム

の画像を使います。

 

学習済みモデルのサンプルも公開中です。
学習済みモデルをまだ作成していない方は、必要に応じてご活用ください。

モノクロ・グレースケール版の学習済みモデル


画像設定:モノクロ・グレースケール
大きさの設定:横の幅14 * 縦の高さ14ピクセル

【バージョン情報】
python 3.7.11-
tensoflow 2.6.0
keras 2.6.0

 

カラー版の学習済みモデル


画像設定:カラー
大きさの設定:横の幅14 * 縦の高さ14ピクセル

【バージョン情報】
python 3.7.11-
tensoflow 2.6.0
keras 2.6.0

 

すぐに使えるGoogle Colaboratoryサンプルコードリンク(手書きOCR:オープンソース)

Japanese-handwritten-text-original-OCR-Basic.ipynb | Google Colaboratory
(ファイル – ドライブにコピーを保存後にコピー環境で実行。プログラムを動かすにはGoogleアカウントでログインする必要があります)

 

 

【プログラムのライセンス】

 

 

The MIT License

Copyright 2021 child programmer

Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the “Software”), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions:

The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software.

THE SOFTWARE IS PROVIDED “AS IS”, WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.

 

 

【日本語手書文字用のオリジナルOCRプログラム:Pythonサンプルコード】

 

 

日本語手書き用オリジナルOCR:横書き・縦書き文字認識 +再学習

このプログラムでの処理の流れ
直線の検出と除去→ブロック検出+ノイズ除去→角度補正→行と列検出→個別文字検出→文字認識

プログラム内に処理の説明や、各コードの大まかな意味なども記載しておきました。日々の学習にお役立てください。

 

 

バージョン情報(Python・各種ライブラリ)

 

 

python 3.7.12
tensoflow 2.6.0
keras 2.6.0
imutils 0.5.4
natsort 5.5.0
opencv(opencv-python)4.1.2
matplotlib 3.2.2

指定したバージョンのインストールが難しい場合、Python・TensorFlow・Keras以外は最新のバージョンを入れてみてください

 

 

① Googleアカウントでログイン

 

 

Googleアカウントでログインした状態で、「ファイル – ドライブにメニューを保存」し、以下の手順を進めます。

 

 

② 学習済みモデルの準備。

 

 

以下のプログラムで作成できます。「〜.h5」という名前のファイルを作成できます。

【日本語の手書き文字画像認識用:Pythonサンプルコード】
KerasでCNN機械学習。自作・自前画像のオリジナルデータセットで画像認識入門
Keras-CNN-Japanese-handwritten-character-text-originaldataset.ipynb

 

 

③ Google Colaboratoryの、このノートブックに学習済みモデルをアップロード。

 

 

「〜.h5」形式の学習済みモデルをアップロードします。

 

 

④ OCR・文字認識させたい画像をアップロードします。

 

 

今回のプログラムで使用する画像(対応している画像):
・文字列が傾いている画像(横書き・縦書き)
・線あり(縦線・横線)
・汚れ/ノイズあり

以下の画像

・「H5_tegaki.png」(横書きの日本語文字画像:直線+ノイズ+傾きあり)
・「V5_tegaki.png」(縦書きの日本語文字画像:直線+ノイズ+傾きあり)

をアップロードします。

 

 

⑤ OCRプログラムの実行前に、日本語フォントをインストール。

 

 

Matplotlibで日本語フォントを表示できるように事前に「japanize-matplotlib」をインストールします。

!pip install japanize-matplotlib #日本語フォント表示用

 

 

⑥ OCRプログラムの実行。

 

 

以下の画像

・「H5_tegaki.png」(横書きの日本語文字画像:直線+ノイズ+傾きあり)
・「V5_tegaki.png」(縦書きの日本語文字画像:直線+ノイズ+傾きあり)

のOCRを実行します。プログラムを実行前に「H5_tegaki.png」「V5_tegaki.png」をアップロードしておきます。
デフォルトでは、

・画像のカラーモード – モノクロ・グレースケール
・学習時の画像の大きさ – 横の幅14・縦の高さ14ピクセル

の「model.h5」という名前の学習済みモデルを利用して、

・横書きの文章
*「H5_tegaki.png」(横書きの日本語文字画像:直線+ノイズ+傾きあり)の画像

をOCRする設定にしてあります。
OCRしたい画像に合わせて「3.各種設定」の所で、設定を微調整してみてください。

 

#### 1.各種インポート #### 

import os
import cv2
import numpy as np
from imutils import contours
import matplotlib.pyplot as plt
import japanize_matplotlib
import glob
from natsort import natsorted
from keras.models import load_model


#### 2.OCRする画像 #### 

input_file = 'H5_tegaki.png' # ここを変更
                             # OCRしたい画像のファイル名を入力します


#### 3.各種設定 ####

# 横書き・縦書きの設定
# 横書きの文字領域検出・縦書きの文字領域検出の選択
horizontal = 0
vertical = 1
OCR_mode = 0 # ここを変更。
             # 横書きは「horizontal」または「0」・縦書きは「vertical」または「1」を入力


# 画像判定用の設定
# 学習済みモデルの読み込み
model = load_model('model.h5') # ここを変更
                               # 学習済みモデルの画像のカラー設定には「モノクロ・グレースケール」「カラー」があります

# 画像のカラー設定
# 学習済みモデルと同じ画像のカラー設定
color_setting = 1 # ここを変更
                  # モノクロ・グレースケールの場合は「1」。カラーの場合は「3」 

# 画像のサイズ設定
# 学習済みモデルと同じサイズを指定
image_width = 14  # ここを変更。使用する学習済みモデルと同じwidth(横幅)を指定
image_height = 14 # ここを変更。使用する学習済みモデルと同じheight(縦の高さ)を指定


# 膨張処理の設定
# OCRしたい画像に合わせて微調整が必要(文字の太さ・文字の線の間隔・文字の間隔などが影響します)
#【横書き】大まかな文字領域の検出(ブロック検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
block_horizontal_kernel_hight = 5  # カーネルの縦の高さ
block_horizontal_kernel_width = 5  # カーネルの横の幅
block_horizontal_iterations = 5    # 膨張処理回数

#【縦書き】大まかな文字領域の検出(ブロック検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
block_vertical_kernel_hight = 5  # カーネルの縦の高さ
block_vertical_kernel_width = 5  # カーネルの横の幅
block_vertical_iterations = 9    # 膨張処理回数


#【横書き】行領域の検出(行検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
column_horizontal_kernel_hight = 2 # カーネルの縦の高さ
column_horizontal_kernel_width = 5  # カーネルの横の幅
column_horizontal_iterations = 6    # 膨張処理回数

#【縦書き】列領域の検出(列検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
row_vertical_kernel_hight = 5  # カーネルの縦の高さ
row_vertical_kernel_width = 3  # カーネルの横の幅
row_vertical_iterations = 6    # 膨張処理回数


#【横書き】個別の文字の検出(文字検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
character_horizontal_kernel_hight = 6  # カーネルの縦の高さ
character_horizontal_kernel_width = 3  # カーネルの横の幅
character_horizontal_iterations = 2    # 膨張処理回数

#【縦書き】個別の文字の検出(文字検出)のための膨張処理(カーネルサイズ・膨張処理回数)の設定
character_vertical_kernel_hight = 3  # カーネルの縦の高さ
character_vertical_kernel_width = 5  # カーネルの横の幅
character_vertical_iterations = 2    # 膨張処理回数


# 輪郭のカット設定
# OCRしたい画像に合わせて微調整が必要(画像の大きさが影響します)
# ブロック検出:文字領域検出した輪郭の「横幅」が、以下の範囲なら輪郭を残す
block_horizontal_height_minimum = 5  # 最小値(ピクセル)
block_horizontal_height_max = 1000   # 最大値(ピクセル)

# ブロック検出:文字領域検出した輪郭の「縦の高さ」が、以下の範囲なら輪郭を残す
block_vertical_height_minimum = 5  # 最小値(ピクセル)
block_vertical_height_max = 1000   # 最大値(ピクセル)


# 行検出:文字領域検出した輪郭の「横幅」が、以下の範囲なら輪郭を残す
row_column_horizontal_height_minimum = 5  # 最小値(ピクセル)
row_column_horizontal_height_max = 1000   # 最大値(ピクセル)

# 列検出:文字領域検出した輪郭の「縦の高さ」が、以下の範囲なら輪郭を残す
row_column_vertical_height_minimum = 5  # 最小値(ピクセル)
row_column_vertical_height_max = 1000   # 最大値(ピクセル)


# 個別の文字領域検出した輪郭の「横幅」が、以下の範囲なら輪郭を残す
character_text_detection_horizontal_height_minimum = 5  # 最小値(ピクセル)
character_text_detection_horizontal_height_max = 300    # 最大値(ピクセル)

# 個別の文字領域検出した輪郭の「縦の高さ」が、以下の範囲なら輪郭を残す
character_text_detection_vertical_height_minimum = 10  # 最小値(ピクセル)
character_text_detection_vertical_height_max = 300     # 最大値(ピクセル)





####  4.直線の検出と除去 ####
# 元の画像から直線を検出し、直線を除去します。
# 「line_cut_元の画像のファイル名.png」を作成します

def line_cut(OCR_input_file):

  # 画像の読み込み
  img = cv2.imread(OCR_input_file)

  print('【直線を検出中・・・】直線検出する画像')
  # 画像の表示
  plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
  plt.show()

  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, img_binary = cv2.threshold(img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)
  #plt.imshow(img_binary)
  print('【直線を検出中・・・】2値化処理画像 - Binarization')
  plt.imshow(cv2.cvtColor(img_binary, cv2.COLOR_BGR2RGB))
  plt.show()

  # 2値化画像で行う
  # rho:画素単位で計算
  # theta:ラジアン単位で計算
  # threshold:直線とみなされるのに必要な最低限の点の数を意味するしきい値。
  # 確率的ハフ変換:
  # minLineLength:検出する直線の最小の長さを表します。この値より短い線分は検出されません
  # maxLineGap:二つの点を一つの直線とみなす時に許容される最大の長さを表します
  # この値より小さい二つの点は一つの直線とみなされます
  # 必要に応じてパラメータの数値を変更してください
  lines = cv2.HoughLinesP(img_binary, rho=1, theta=np.pi/360, threshold=15, minLineLength=55, maxLineGap=5.4)

  if lines is None:
    print('\n【直線の検出結果】')
    print(' 直線は検出されませんでした。')
    file_name = os.path.splitext(os.path.basename(input_file))[0]
    cv2.imwrite(f'line_cut_{file_name}.png', img)
  else:
    print('\n【直線の検出結果】')
    print(' 直線が検出されました。検出した直線を削除します。')
    for line in lines:
        x1, y1, x2, y2 = line[0]
        # 検出した直線に赤線を引く
        red_lines_img = cv2.line(img, (x1,y1), (x2,y2), (0,0,255), 3)
    print('\n【直線検出部位の視覚化】')
    print(' 赤色部分が検出できた直線。')
    # 画像の表示(直線を検出した画像)
    plt.imshow(cv2.cvtColor(red_lines_img, cv2.COLOR_BGR2RGB))
    plt.show()

    for line in lines:
        x1, y1, x2, y2 = line[0]
        # 検出した直線を消す(白で線を引く):2値化した際に黒で表示される
        no_lines_img = cv2.line(img, (x1,y1), (x2,y2), (255,255,255), 3)

        # 直線を除去した画像を元のファイル名の頭に「line_cut_」をつけて保存。「0」を指定でファイル名を取得
        file_name = os.path.splitext(os.path.basename(input_file))[0]
        cv2.imwrite(f'line_cut_{file_name}.png', no_lines_img)
    print('\n【直線検出部位の削除結果:元の画像から削除】')
    print(' 白色部分が検出した直線を消した場所(背景が白の場合は区別できません)。')
    # 画像の表示(直線を削除した画像)
    plt.imshow(cv2.cvtColor(no_lines_img, cv2.COLOR_BGR2RGB))
    plt.show()

    line_cut_input_file = f'line_cut_{file_name}.png'
    img = cv2.imread(line_cut_input_file)
    img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
    retval, img_binary = cv2.threshold(img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)
    print('\n【直線検出部位の削除結果:2値化処理画像 - Binarization】')
    print(' 直線を除去した結果。')
    # 画像の表示(直線を削除した2値画像)
    plt.imshow(cv2.cvtColor(img_binary, cv2.COLOR_BGR2RGB))
    plt.show()





## 直線の検出と除去の関数(line_cut)の実行
line_cut(input_file)






####  5.大まかな文字領域の検出(ブロック検出)+ ノイズ除去 ####
# 「line_cut_元の画像のファイル名.png」(直線除去画像)からノイズを除去し、ブロック検出をおこないます
# 「block_ROI_img〜.png」(ブロック検出画像)を作成します

# 文字領域を検出・抽出する処理
def block_contours (OCR_input_file):

  # 画像の読み込み
  img = cv2.imread(OCR_input_file)

  # ノイズ除去(Denoising・Noise Reduction):メディアンフィルタの利用
  #「3」:カーネルサイズ(1・3・5・7など)を大きくすると、点々などのノイズをより消せるが、ぼやける
  # ここのノイズ除去処理により画像がぼやけるので、ここの記述「img = cv2.medianBlur(img, 3)」をなくして
  # 事前に画像処理ソフトなどでノイズを除去した方がいいのかもしれません
  img = cv2.medianBlur(img, 3)

  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, img_binary = cv2.threshold(img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  # 白部分の膨張処理(Dilation):モルフォロジー変換 - 2値画像を対象
  if OCR_mode == 0: # 横書きの場合
    kernel = np.ones((block_horizontal_kernel_hight, block_horizontal_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    img_dilation = cv2.dilate(img_binary,kernel,iterations = block_horizontal_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定
  elif OCR_mode == 1: # 縦書きの場合
    kernel = np.ones((block_vertical_kernel_hight, block_vertical_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    img_dilation = cv2.dilate(img_binary,kernel,iterations = block_vertical_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定

  # 解説用のコメント(2値化)
  print('\n【2値化処理画像 - Binarization】')
  print('  画像の2値化と白部分の膨張を工夫することで、大まかな文字領域の検出(ブロック検出)をしています。')
  print('  この段階で、文字が「白」として処理できていないと輪郭の検出がしにくいようでした。')

  # 膨張処理後の2値化画像の表示
  plt.imshow(cv2.cvtColor(img_dilation, cv2.COLOR_BGR2RGB))
  plt.show()


  # 輪郭の検出
  #「findContours」の返り値「cnts(contours)」は輪郭毎の座標組・「hierarchy」は輪郭の階層構造
  #「cv2.RETR_EXTERNAL」:最も外側の輪郭を返す
  #「cv2.CHAIN_APPROX_SIMPLE」:輪郭上の全点の情報を保持しない。輪郭の情報を圧縮
  cnts, hierarchy = cv2.findContours(img_dilation, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

  if OCR_mode == 0: # 横書きの場合
    cnts, hierarchy = contours.sort_contours(cnts, method='top-to-bottom') # 上から下に並び替え
  elif OCR_mode == 1: # 縦書きの場合
    cnts, hierarchy = contours.sort_contours(cnts, method='right-to-left') # 右から左に並び替え

  # ROI(Region of Interest:興味領域・対象領域)抽出用の初期設定
  block_ROI_index = 0

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  result = []
  for contour in cnts:  
    x, y, w, h = cv2.boundingRect(contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)
      
    # 大きすぎる小さすぎる領域を除去。処理する画像サイズに合わせて微調整が必要
    if not block_vertical_height_minimum < w < block_vertical_height_max:
      continue
    if not block_horizontal_height_minimum < h < block_horizontal_height_max: #輪郭の描画は画像サイズを超えることもあるようでした。
      continue

    # ROI抽出:画像の切り抜きと保存 
    block_ROI = img[y:y+h, x:x+w]   
    cv2.imwrite('block_ROI_img{}.png'.format(block_ROI_index), block_ROI)
    block_ROI_index += 1
    #resultに要素を追加
    result.append([x, y, w, h])


  # 画面に矩形の輪郭を描画 (描画機能)
  for x, y, w, h in result:
      cv2.rectangle(img, (x, y), (x+w, y+h), (100, 255, 100), 3)  # 色の指定はRGB(100, 255, 100)。「3」は 太さ。数字を大きくすると太い輪郭が描画される。


  # 解説用のコメント(文字領域の輪郭検出・抽出)
  if OCR_mode == 0: # 横書きの場合
    print('\n【横書きの文字領域の輪郭検出・抽出結果 - Text detection・Contours】')
  elif OCR_mode == 1:  #縦書きの場合
    print('\n【縦書きの文字領域の輪郭検出・抽出結果 - Text detection・Contours】')
  print('  枠が大きすぎる場合・小さすぎる場合には輪郭を除去しています。画像によって微調整する必要があります。')

  # 文字領域の輪郭検出・抽出結果の表示
  plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
  # plt.savefig('block_text-detection.png', dpi=300)  # 抽出結果の画像ファイルも保存しています。「dpi」は何も指定しないと dpi=72
  plt.show()



# 元の画像ファイル名に「line_cut_」を追加
# 直線の検出と除去の関数(line_cut)を実行後に出力される画像をプログラムで使うための処理
file_name = os.path.splitext(os.path.basename(input_file))[0]
line_cut_input_file = f'line_cut_{file_name}.png'



## 大まかな文字領域の検出(ブロック検出)の関数(block_contours)の実行
block_contours (line_cut_input_file)





#### 6.角度補正 ####
# 「block_ROI_img〜.png」(ブロック検出画像)を、ブロックごとに角度補正します
# 「rotate_元の画像のファイル名.png」(角度補正した画像)を作成します

def rotate_program(OCR_input_file):

  # ブロブ処理(粒子解析・ラベリング)
  # 画像内のブロブを検出するために、グレースケールと適応しきい値に変換してバイナリ画像を取得します
  # ブロブ(塊・連結領域)とは、似た特徴を持った画像内の領域を意味
  # ブロブ検出は類似した色の連結領域(ブロブ)を識別するために画像を分析
  # ブロブ解析(中心座標やサイズなど取得)
  # 画像をラベリング処理し、ラベル付けされた領域の特徴を解析することをブロブ解析
  block_img = cv2.imread(OCR_input_file)
  print('【元の画像】')
  plt.imshow(cv2.cvtColor(block_img, cv2.COLOR_BGR2RGB))
  plt.show()

  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  block_img_gray = cv2.cvtColor(block_img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, block_img_binary = cv2.threshold(block_img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  print('【2値化画像】')
  plt.imshow(cv2.cvtColor(block_img_binary, cv2.COLOR_BGR2RGB))
  plt.show()

  # 輪郭を見つける
  cnts, hierarchy = cv2.findContours(block_img_binary, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
        
  # 輪郭の選択
  # 面積が小さい輪郭削除 「5」のところの数値より小さい輪郭は削除
  cnts = list(filter(lambda cnts: 5 < cv2.contourArea(cnts), cnts))


  # 入力画像のMat(画像用の行列)のコピー
  block_blob_cnts = np.copy(block_img)

  # 輪郭を描画した配列を作成
  cv2.drawContours(block_blob_cnts, cnts, -1, (255,0,0))

  # 外接矩形
  # 入力画像のMat(画像用の行列)のコピー
  block_bounding_img = np.copy(block_img)

  # 画面に矩形の輪郭を描画 
  for contour in cnts:
      x, y, w, h = cv2.boundingRect(contour)
      cv2.rectangle(block_bounding_img, (x, y), (x + w, y + h), (0, 255, 0), 1)

  print('【輪郭を描画した画像】')
  # 輪郭の個数を出力
  print(' ブロブの数: %d' % len(cnts))
  plt.imshow(cv2.cvtColor(block_bounding_img, cv2.COLOR_BGR2RGB))
  plt.show()

  # ブロブの角度からcv2.minAreaRect()で、スキュー角度(傾斜:skew angle)を計算
  # スキュー角度:水平および垂直の配置に画像イメージを返すのに必要な回転の量
  # np.where(block_img_binary > 0):0より大きい全てのピクセル値の座標を取得
  # np.column_stack:配列を列方向に積み重ねる
  coordinates= np.column_stack(np.where(block_img_binary > 0))

  # 全ての座標の最小回転境界ボックスを計算
  # 長方形が、xy軸と平行な状態の時に「-90」を返す。時計回りに回転させていくと「0」にむかって値が増えていく
  # 長方形は、90度回転すると、xy軸と平行な状態になるため、「-90」に戻る
  angle = cv2.minAreaRect(coordinates)[-1]
  if angle < -45:
      angle = -(90 + angle)
  else:
      angle = -angle

  # アフィン変換を適用してスキュー角度(傾斜:skew angle)を修正
  # 水平になるように回転
  (h, w) = block_img.shape[:2]
  center = (w // 2, h // 2)
  # 回転のための変換行列の生成 
  # cv2.getRotationMatrix2D(入力画像の回転中心, 回転角度 単位は度- 正の値:反時計回り, 等方性スケーリング係数 - 拡大縮小の倍率)
  rotation_matrix = cv2.getRotationMatrix2D(center, angle, 1.0)

  # v2.warpAffine(元の画像, cv2.getRotationMatrix2Dで生成した2*3の変換行列, 出力する画像サイズ(縦の高さ, 横の幅))
  block_rotate_img = cv2.warpAffine(block_img, rotation_matrix, (w, h), flags=cv2.INTER_CUBIC, borderMode=cv2.BORDER_REPLICATE)

  #  元の画像を傾き角度補正(回転)した画像を表示
  print('【角度補正した画像】')
  print(' 補正角度:', angle, '度')
  plt.imshow(cv2.cvtColor(block_rotate_img, cv2.COLOR_BGR2RGB))
  plt.show()

  # 角度補正した画像を「rotate_元の画像のファイル名.png」で保存。「0」を指定でファイル名を取得
  file_name = os.path.splitext(os.path.basename(OCR_input_file))[0]
  cv2.imwrite(f'rotate_{file_name}.png', block_rotate_img)




## 角度補正のための関数(rotate_program)の実行


#「block_ROI_img〜.png」(大まかな文字領域の検出:ブロック検出画像)という名前のファイルの取得
file_list = glob.glob('block_ROI_img*png')

#「block_ROI_img〜.png」(〜の部分に0や1などの数字が入る)という名前のファイルを0から順番に並び替え
print(natsorted(file_list))

#「block_ROI_img〜.png」のファイルを順番に角度補正のための関数(rotate_program)に入れる
for file in natsorted(file_list):
  rotate_program(file)






#### 7.横書き・縦書きの行・列領域の検出(行と列の検出) #### 
# 「rotate_元の画像のファイル名.png」(角度補正した画像)から行と列の検出をします
# 「row_column_ROI_img〜.png」(行や列を検出した画像)を作成します

def text_row_column_detection (OCR_input_file):
  # 画像の読み込み
  row_column_img = cv2.imread(OCR_input_file)
  
  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  row_column_img_gray = cv2.cvtColor(row_column_img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, row_column_img_binary = cv2.threshold(row_column_img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  # 白部分の膨張処理(Dilation):モルフォロジー変換 - 2値画像を対象
  if OCR_mode == 0: # 横書きの場合
    kernel = np.ones((column_horizontal_kernel_hight, column_horizontal_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    row_column_img_dilation = cv2.dilate(row_column_img_binary,kernel,iterations = column_horizontal_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定  
    print('\n【各行の2値化処理画像 - Binarization】') 
  elif OCR_mode == 1:  #縦書きの場合
    kernel = np.ones((row_vertical_kernel_hight, row_vertical_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    row_column_img_dilation = cv2.dilate(row_column_img_binary,kernel,iterations = row_vertical_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定  
    print('\n【各列の2値化処理画像 - Binarization】')
  print('  画像の2値化と白部分の膨張を工夫することで、文字と文字の繋がりを検出しています。')
  print('  画像のテキストの文字の「太さ」「行間」「文字間隔」によっては、画像のリサイズの微調整や膨張処理の微調整が必要です。')


  # 膨張処理後の2値化画像の表示
  plt.imshow(cv2.cvtColor(row_column_img_dilation, cv2.COLOR_BGR2RGB))
  plt.show()

  # 輪郭の検出
  #「findContours」の返り値「contours」は輪郭毎の座標組・「hierarchy」は輪郭の階層構造
  #「cv2.RETR_EXTERNAL」:最も外側の輪郭を返す
  #「cv2.CHAIN_APPROX_SIMPLE」:輪郭上の全点の情報を保持しない。輪郭の情報を圧縮
  cnts, hierarchy = cv2.findContours(row_column_img_dilation, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

  if OCR_mode == 0: # 横書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='top-to-bottom') # 上から下に並び替え
  elif OCR_mode == 1: # 縦書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='right-to-left') # 右から左に並び替え

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  for row_column_contour in cnts:  
    x, y, w, h = cv2.boundingRect(row_column_contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)
    
    # 大きすぎる小さすぎる領域を除去。処理する画像サイズに合わせて微調整が必要
    if not row_column_vertical_height_minimum < w < row_column_vertical_height_max:
      continue
    if not row_column_horizontal_height_minimum < h < row_column_horizontal_height_max: #輪郭の描画は画像サイズを超えることもあるようでした。
      continue

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  row_column_result = []
  for row_column_contour in cnts:  
    x, y, w, h = cv2.boundingRect(row_column_contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)
    
    # 大きすぎる小さすぎる領域を除去。処理する画像サイズに合わせて微調整が必要
    if not row_column_vertical_height_minimum < w < row_column_vertical_height_max:
      continue
    if not row_column_horizontal_height_minimum < h < row_column_horizontal_height_max: #輪郭の描画は画像サイズを超えることもあるようでした。
      continue

    #resultに要素を追加
    row_column_result.append([x, y, w, h])

  # 画面に矩形の輪郭を描画 (描画機能:for〜cv2.rectangleまでの2行をコメントアウト、または削除すると輪郭の描画を無効にできます)
  for x, y, w, h in row_column_result:
      cv2.rectangle(row_column_img, (x, y), (x+w, y+h), (100, 255, 100), 2)  # 色の指定はRGB(100, 255, 100)。「2」は 太さ。数字を大きくすると太い輪郭が描画される。


  # 解説用のコメント(輪郭検出・抽出)
  if OCR_mode == 0: # 横書きの場合
    print('\n【各行の文字の輪郭検出・抽出結果 - Text recognition・Contours】')
  elif OCR_mode == 1:  #縦書きの場合
    print('\n【各列の文字の輪郭検出・抽出結果 - Text recognition・Contours】')
  print('  枠が大きすぎる場合・小さすぎる場合には輪郭を除去しています。画像によって微調整する必要があります。')

  # 輪郭検出・抽出結果の表示
  plt.imshow(cv2.cvtColor(row_column_img, cv2.COLOR_BGR2RGB))
  plt.show()




##「row_column_ROI_img〜.png」(行や列を検出した画像)の画像を保存するための処理


#「rotate_block_ROI_img〜.png」(角度補正後のブロック検出画像)という名前のファイルの取得
file_list = glob.glob('rotate_block_ROI_img*png')

#「rotate_block_ROI_img〜.png」(〜の部分に0や1などの数字が入る)という名前のファイルを0から順番に並び替え
print(natsorted(file_list))

# ROI(Region of Interest:興味領域・対象領域)抽出用の初期設定
row_column_ROI_index = 0

#「rotate_block_ROI_img〜.png」のファイルを順番に処理する
for file in natsorted(file_list):
  row_column_img = cv2.imread(file)

  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  row_column_img_gray = cv2.cvtColor(row_column_img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, row_column_img_binary = cv2.threshold(row_column_img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  if OCR_mode == 0: # 横書きの場合
    kernel = np.ones((column_horizontal_kernel_hight, column_horizontal_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    row_column_img_dilation = cv2.dilate(row_column_img_binary,kernel,iterations = column_horizontal_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定  
    print('\n【各行の2値化処理画像 - Binarization】') 
  elif OCR_mode == 1:  #縦書きの場合
    kernel = np.ones((row_vertical_kernel_hight, row_vertical_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    row_column_img_dilation = cv2.dilate(row_column_img_binary,kernel,iterations = row_vertical_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定  

  cnts, hierarchy = cv2.findContours(row_column_img_dilation, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
  if OCR_mode == 0: # 横書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='top-to-bottom') # 上から下に並び替え
  elif OCR_mode == 1: # 縦書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='right-to-left') # 右から左に並び替え

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  for row_column_contour in cnts:  
    x, y, w, h = cv2.boundingRect(row_column_contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)

    # ROI抽出:画像の切り抜きと保存。 
    row_column_ROI = row_column_img[y:y+h, x:x+w]   
    cv2.imwrite('row_column_ROI_img{}.png'.format(row_column_ROI_index), row_column_ROI)

    row_column_ROI_index += 1






#### 7.個別の文字の検出(文字検出)+ 個別の文字検出枠の描画設定 #### 
# 「row_column_ROI_img〜.png」(行や列を検出した画像)から、行や列ごとに個別の文字を検出します
# 「OCR_img〜.png」(個別文字検出画像)を作成します
# 「個別の文字検出枠の描画設定:画面に矩形の輪郭を描画」のコードをコメントアウトまたは削除すると個別の文字検出枠を無効化できます
# 個別の文字検出枠の有無や太さによってOCR結果の精度に影響がでます。基本的に枠線が無い方が精度は良いです
# 個別の文字検出枠があると、どの程度文字検出ができているか把握しやすいので、お好みに応じて調整してみてください

def find_draw_contours (OCR_input_file):
  # 画像の読み込み
  predict_img = cv2.imread(OCR_input_file)
  
  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  predict_img_gray = cv2.cvtColor(predict_img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, predict_img_binary = cv2.threshold(predict_img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  # 白部分の膨張処理(Dilation):モルフォロジー変換 - 2値画像を対象
  if OCR_mode == 0: # 横書きの場合
    kernel = np.ones((character_horizontal_kernel_hight, character_horizontal_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    predict_img_dilation = cv2.dilate(predict_img_binary,kernel,iterations = character_horizontal_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定
  elif OCR_mode == 1: #縦書きの場合
    kernel = np.ones((character_vertical_kernel_hight, character_vertical_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    predict_img_dilation = cv2.dilate(predict_img_binary,kernel,iterations = character_vertical_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定

  # 解説用のコメント(2値化)
  if OCR_mode == 0: # 横書きの場合
    print('\n【白部分の膨張処理 - Dilation】各行の2値化処理画像 - Binarization')
  elif OCR_mode == 1:  #縦書きの場合
    print('\n【白部分の膨張処理 - Dilation】各列の2値化処理画像 - Binarization')
  print('  画像の2値化と白部分の膨張を工夫することで、個別の文字を検出しやすいようにしています。')
  print('  画像のテキストの文字の「太さ」「行間」「文字間隔」によっては、画像のリサイズや膨張処理の微調整が必要です。')
  print('  この段階で、文字が他の文字と繋がってしまうと、個別の文字の検出ができなくなります。')

  # 膨張処理後の2値化画像の表示
  plt.imshow(cv2.cvtColor(predict_img_dilation, cv2.COLOR_BGR2RGB))
  plt.show()



  # 輪郭の検出
  #「findContours」の返り値「contours」は輪郭毎の座標組・「hierarchy」は輪郭の階層構造
  #「cv2.RETR_EXTERNAL」:最も外側の輪郭を返す
  #「cv2.CHAIN_APPROX_SIMPLE」:輪郭上の全点の情報を保持しない。輪郭の情報を圧縮
  cnts, hierarchy = cv2.findContours(predict_img_dilation, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
  if OCR_mode == 0: # 横書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='left-to-right') # 左から右に並び替え
  elif OCR_mode == 1: # 縦書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='top-to-bottom') # 上から下に並び替え

  # 画像の上に数字の結果を出すためにここでもROI設定は必要
  # ROI(Region of Interest:興味領域・対象領域)抽出用の初期設定
  OCR_index = 0

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  predict_result = []
  for predict_contour in cnts:  
    x, y, w, h = cv2.boundingRect(predict_contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)
    
    # 大きすぎる小さすぎる領域を除去。処理する画像サイズに合わせて微調整が必要
    if not character_text_detection_horizontal_height_minimum < w < character_text_detection_horizontal_height_max:
      continue
    if not character_text_detection_vertical_height_minimum < h < character_text_detection_vertical_height_max: #輪郭の描画は画像サイズを超えることもあるようでした。
      continue

    # ROI抽出:画像の切り抜きと保存。→ 再学習用に別プログラムを作成する OCR_index自体は、文字数判断のために必要かもしれない
    predict_ROI = predict_img[y:y+h, x:x+w]   
    OCR_index += 1

    #resultに要素を追加
    predict_result.append([x, y, w, h])

  ## 個別の文字検出枠の描画設定:画面に矩形の輪郭を描画 
  # 描画機能:for〜cv2.rectangleまでの2行をコメントアウト、または削除すると輪郭の描画を無効にできます
  # 行・列ごとのOCR結果の表示の際に影響します(線ありの場合、精度が下がります)。「OCR結果:全文」には影響しません
  for x, y, w, h in predict_result:
     cv2.rectangle(predict_img, (x, y), (x+w, y+h), (100, 255, 100), 1)  # 色の指定はRGB(100, 255, 100)。「1」は 太さ。数字を大きくすると太い輪郭が描画される。

  # 解説用のコメント(輪郭検出・抽出)
  if OCR_mode == 0: # 横書きの場合
    print('\n【各行の文字の輪郭検出・抽出結果 - Text recognition・Contours】')
  elif OCR_mode == 1:  #縦書きの場合
    print('\n【各列の文字の輪郭検出・抽出結果 - Text recognition・Contours】')
  print('  枠が大きすぎる場合・小さすぎる場合には輪郭を除去しています。画像によって微調整する必要があります。')

  # 輪郭検出・抽出結果の表示
  plt.imshow(cv2.cvtColor(predict_img, cv2.COLOR_BGR2RGB))
  plt.show()

  return predict_result, predict_img, OCR_index




##「OCR_img〜.png」(個別文字検出)の画像を保存するための処理


#「row_column_ROI_img〜.png」(行や列を検出した画像)という名前のファイルの取得
file_list = glob.glob('row_column_ROI_img*png')

#「row_column_ROI_img〜.png」(〜の部分に0や1などの数字が入る)という名前のファイルを0から順番に並び替え
print(natsorted(file_list))

# ROI(Region of Interest:興味領域・対象領域)抽出用の初期設定
OCR_index = 0

#「row_column_ROI_img〜.png」のファイルを順番に処理する
for file in natsorted(file_list):
  predict_img = cv2.imread(file)

  # モノクロ・グレースケール画像へ変換(2値化前の画像処理)
  predict_img_gray = cv2.cvtColor(predict_img, cv2.COLOR_BGR2GRAY)

  # 2値化(Binarization):白(1)黒(0)のシンプルな2値画像に変換
  retval, predict_img_binary = cv2.threshold(predict_img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

  # 白部分の膨張処理(Dilation):モルフォロジー変換 - 2値画像を対象
  if OCR_mode == 0: # 横書きの場合
    kernel = np.ones((character_horizontal_kernel_hight, character_horizontal_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    predict_img_dilation = cv2.dilate(predict_img_binary,kernel,iterations = character_horizontal_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定
  elif OCR_mode == 1: #縦書きの場合
    kernel = np.ones((character_vertical_kernel_hight, character_vertical_kernel_width),np.uint8) # カーネル(構造的要素):全要素の値が1の縦横が任意のピクセルのカーネル
    predict_img_dilation = cv2.dilate(predict_img_binary,kernel,iterations = character_vertical_iterations) #「iterations=」繰り返し膨張処理を行う回数を指定

  cnts, hierarchy = cv2.findContours(predict_img_dilation, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
  if OCR_mode == 0: # 横書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='left-to-right') # 左から右に並び替え
  elif OCR_mode == 1: # 縦書きの場合
      cnts, hierarchy = contours.sort_contours(cnts, method='top-to-bottom') # 上から下に並び替え

  # 抽出した輪郭を「x, y, w(横の幅), h(縦の高さ)」の単純なリストに変換
  predict_result = []
  for predict_contour in cnts:  
    x, y, w, h = cv2.boundingRect(predict_contour) # 外接矩形の左上の位置は(x,y),横の幅と縦の高さは(w,h)
    
    # 大きすぎる小さすぎる領域を除去。処理する画像サイズに合わせて微調整が必要
    if not character_text_detection_horizontal_height_minimum < w < character_text_detection_horizontal_height_max:
      continue
    if not character_text_detection_vertical_height_minimum < h < character_text_detection_vertical_height_max: #輪郭の描画は画像サイズを超えることもあるようでした。
      continue

    # ROI抽出:画像の切り抜きと保存。→ 再学習用に別プログラムを作成する OCR_index自体は、文字数判断のために必要かもしれない。
    predict_ROI = predict_img[y:y+h, x:x+w]   
    cv2.imwrite('OCR_img{}.png'.format(OCR_index), predict_ROI)
    OCR_index += 1





#### 8.画像判定のためのプログラム ####
# オリジナルデータセットで学習させた学習済みモデルを使って画像判定
# 「行や列ごとの判定」「全文の判定」ができます

# 画像の各種設定
# 認識できる文字を増やしたい場合は、ここに文字を追加します(事前に、文字を増やした「学習済みモデル」を作成する必要があります)
# ステップ1〜2 で利用した以下のプログラム
# 【日本語の手書き文字画像認識用:Pythonサンプルコード】KerasでCNN機械学習。自作・自前画像のオリジナルデータセットで画像認識入門 のプログラム
# Keras-CNN-Japanese-handwritten-character-text-originaldataset.ipynb
# https://colab.research.google.com/drive/1TEjxN8xZVC0k08WzG_Ie8dyaGloSqJzA?usp=sharing
# 内の「④ 自前画像で判定(手書き日本語画像)」で出力された順番に合わせて文字を追加します
folder = [ 'C', 'O', 'R', '、', '。', 'い', 'き', 'す', 'た', 'で', 'の', 'り', 'を', 'グ', 'プ', 'ミ', 'ラ', 'ロ', 'ン', '中', '作', '字', '学', '手', '文', '日', '書', '本', '械', '横', '機', '用', '縦', '習', '語'] 


# 行や列ごとに個別文字認識をする処理
def cognition(OCR_input_file):
  # 解説用コメント
  if OCR_mode == 0: # 横書きの場合
    print('\n【各行の画像判別結果 - Prediction】デフォルトではグレースケールの画像を判定できます。')
  elif OCR_mode == 1:  #縦書きの場合
     print('\n【各列の画像判別結果 - Prediction】デフォルトではグレースケールの画像を判定できます。')
  print(' 「color_setting = 3」に変更するとカラー版の学習済みモデルにも対応できます。 \n')
  print('  OCR結果(予測結果): \n')
  # 読み込んだ画像データを予測
  for i, predict_contour in enumerate(cnts):
      x, y, w, h = predict_contour 

      # 画像データを取り出す
      img_extraction = predict_img[y:y+h, x:x+w]

      # データを学習済みモデルのデータに合わせる
      if color_setting == 1:
        gazou = cv2.cvtColor(img_extraction, cv2.COLOR_BGR2GRAY)  # モノクロ・グレースケールの場合
      elif color_setting == 3:
        gazou = cv2.cvtColor(img_extraction, cv2.COLOR_BGR2RGB)   # カラーの場合
      gazou = cv2.resize(gazou, (image_width, image_height))
      suuti = gazou.reshape(image_width, image_height, color_setting).astype('float32')/255 

      # 予測する
      n = model.predict(np.array([suuti]))

    
      # 画面に結果を表示
      plt.subplot(1, OCR_index, i + 1) 
      plt.imshow(cv2.cvtColor(img_extraction, cv2.COLOR_BGR2RGB))
      plt.axis('off')
      plt.title(folder[n.argmax()] )
      print(folder[n.argmax()] , end='')  #横一列に表示させるため「, end=''」を追加
  plt.show()



#「OCR結果:全文」を表示させる処理
def cognition_text(OCR_input_file):
  # 読み込んだ画像データを予測
  if color_setting == 1: # モノクロ・グレースケールの場合
    gazou = cv2.imread(OCR_input_file, 0)
  elif color_setting == 3:  # カラーの場合
    gazou = cv2.imread(OCR_input_file, 1)

  # データを学習済みモデルのデータに合わせる
  gazou = cv2.resize(gazou, (image_width, image_height))
  if color_setting == 1: # モノクロ・グレースケールの場合
    suuti = gazou.reshape(image_width, image_height, 1).astype('float32')/255 
  elif color_setting == 3:  # カラーの場合
    suuti = gazou.reshape(image_width, image_height, 3).astype('float32')/255 

  # 予測する
  n = model.predict(np.array([suuti]))
  print(folder[n.argmax()] , end='')  #横一列に表示させるため「, end=' '」を追加





#### 9.関数の実行など #### 

## 横書き・縦書きの行・列領域の検出(行と列の検出)する関数(text_row_column_detection)の実行
#「rotate_block_ROI_img〜.png」(角度補正後のブロック検出画像)という名前のファイルの取得
file_list = glob.glob('rotate_block_ROI_img*png')
print(natsorted(file_list))
#「rotate_block_ROI_img〜.png」の画像を0から順番に1つずつ処理
for file in natsorted(file_list):
  text_row_column_detection(file)


## 個別の文字の検出(文字検出)する関数(find_draw_contours)の実行
## 個別の文字認識をする関数(cognition)の実行
#「row_column_ROI_img〜.png」(行や列を検出した画像)という名前のファイルの取得
file_list = glob.glob('row_column_ROI_img*png')
print(natsorted(file_list))
#「row_column_ROI_img〜.png」を0から順番に1つずつ処理
for file in natsorted(file_list):
  cnts, predict_img,OCR_index = find_draw_contours(file) 
  cognition(file)


##「OCR結果:全文」を表示させる関数(cognition_text)の実行
#「OCR_img〜.png」(個別の文字検出画像)という名前のファイルの取得
file_list = glob.glob('OCR_img*png')
print(natsorted(file_list))
print('\n【OCR結果:全文】\n')
#「OCR_img〜.png」の画像を0から順番に1つずつ認識させることで全文結果を表示
for file in natsorted(file_list):
  cognition_text(file)


# 元の画像を表示させる処理など
print('\n\n【OCRした画像】\n')
img = cv2.imread(input_file)
plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
plt.show()


print('\n 間違えた場合は、間違えた文字の画像(OCR_img〜.png:出力結果は画像の番号順)で再学習してみてください。\n')






#### 10.出力した画像ファイルの削除のためのプログラム ####
# 今回のコードでは、画像を一度作成後に、プログラム内で利用し、最後に作成した画像を全て削除しています
# そのため、次にOCRを実行する画像内の文字検出数などが少ないと、誤作動が起きるリスクがあります
# 画像ファイルを保存した場合には、一度生成された画像を削除してから、新たな画像のOCRを試みてください
# 「個別の文字領域検出した画像(OCR_img*png)の削除」のコードをコメントアウトまたは、削除すると個別の文字検出画像を保存できます


# 直線検出した画像(line_cut_元のファイル名.png)の削除:
# 保存したい場合は、ここをコメントアウト(または削除)すると画像を保存できます
file_name = os.path.splitext(os.path.basename(input_file))[0]
os.remove(f'line_cut_{file_name}.png')


# 文字領域のブロック検出した画像(block_ROI_img〜.png)の削除:
# 保存したい場合は、ここをコメントアウト(または削除)すると画像を保存できます
file_list = glob.glob("block_ROI_img*png")
for file in file_list:
  os.remove(file)


# 角度補正した画像(rotate_block_ROI_img〜.png)の削除:
# 保存したい場合は、ここをコメントアウト(または削除)すると画像を保存できます
file_list = glob.glob('rotate_block_ROI_img*png')
for file in file_list:
  os.remove(file)


# 行と列の文字領域検出した画像(row_column_ROI_img〜.png)の削除:
# 保存したい場合は、ここをコメントアウト(または削除)すると画像を保存できます
file_list = glob.glob('row_column_ROI_img*png')
for file in file_list:
  os.remove(file)


# 個別の文字領域検出した画像(OCR_img*png)の削除:
# 保存したい場合は、ここをコメントアウト(または削除)すると画像を保存できます
# OCRに失敗した個別の文字画像で再学習させることができます
file_list = glob.glob('OCR_img*png')
for file in file_list:
  os.remove(file)

 

【出力結果例】(横書きの例)

出力結果例:【日本語手書き編 - 自動文字検出・抽出OCR】連続文字判定:横書き・縦書き(ひらがな・カタカナ・漢字・ローマ字・、点・。丸)+再学習

 

【行ごとのOCR出力結果】

 

日本語自作OCR開発:行・列ごとのOCR出力結果

 

【全文のOCR出力結果】

 

OCR結果 - 全文(画像)
日本語自作OCR開発:全文出力 横書き

 

 

⑦ 再学習。

 

 

間違えた画像をオリジナルデータセットに追加して、再学習(学習機能)させることで、AIを賢くしてみてください。

 

【日本語の手書き文字画像認識用:Pythonサンプルコード】
KerasでCNN機械学習。自作・自前画像のオリジナルデータセットで画像認識入門
Keras-CNN-Japanese-handwritten-character-text-originaldataset.ipynb

 

 

by 子供プログラマー

 

【日本語手書きOCR編】連続文字画像認識プログラミング入門(Python・OpenCV・Keras・CNN)| 一覧ページ