t_wの輪郭

GoogleBERT

ALBERT

2023/8/13 6:39:00

BERTを小さくしたやつ。でも性能はそのまま。と言われている。

あれあれあれ日本語ALBERTあれあれあれあれあれajinkyaT/albert-japanese-v2-finetuned-nerあれCTranslate2はALBERTに対応していなかったALBERT model Pretraining and Fine Tuning using TF2.0

あれ

2023/8/13 13:06:00

いや、「ベクトル検索ぐらいマネージドサービスあるやろ」とはなるんだけど、たけーのよ。Azure Cognitive Searchとか、一番安いので月額1万円以上する。

DynamoDBとLambdaでやりくりすれば、維持費をほぼ0円、処理があっても月額100円ぐらいで何とかなるはずなんや。

で、そのために文章をベクトル化(Sentence Embedding)する処理が必要だったのだけどもですね、世のSentence Embeddingするライブラリやら言語モデル(BERTとか)やらはファイルサイズが巨大で、Lambda関数に乗り切らんかったわけです。

そこで、BERTを小型化したALBERTでSentence Embeddingが取れるように学習してたんですけども、やっとこさそれらしい結果が出せるようになってきた。

となると、次の課題はベクトル検索のDB部分なわけです。今はJavaScriptのライブラリを使ってるので速くないので、Go言語とかでやりたい。

というか、JavaScriptでのSentence Embeddingの計算は遅いはずなので、そこもGo言語に切り替えるうまみがあるはず。

あれ

2023/8/13 6:42:00

東北大学あたりが日本語ALBERTやってくんねーかなぁ

あれ

2023/8/13 6:39:00

BERTとALBERTの学習させてるんだけど、BERTの成績が良すぎて辛い。ALBERTが追い付かない。使っているALBERTのモデルが、「小さすぎる」可能性はある。