終わりのないパンデミックで誰にとっても困難だった2021年も終わりに近づいています。しかし、非対面時代を迎え、人工知能技術の開発と採用はかつてないほど活発になっています。在宅勤務が当たり前になったり、リモートテクノロジーの採用が増えたりするなど、大きな変化が起きている中で、AI技術はさまざまな分野で活発に活用されています。
このコンテンツは2021年を締めくくり、今年の主要な人工知能ニュースをまとめたものです。2021年にさまざまなメディアを通じて紹介された人工知能関連の記事の重要性と頻度を踏まえて選ばれました。ボリュームの関係で、2021年の人工知能と自然言語処理に関する主要なニュースを、この記事を含めて2回に分けて紹介します。
一月
AIチャットボットIrudaがサービスを一時停止
AIチャットボット「Iruda」は、ヘイトスピーチと個人情報漏洩をめぐる論争を理由にサービスを終了しました。社会的な論争を巻き起こし、学習に使われるデータベースだけでなく、ディープラーニングの会話モデルも破壊されました。しかし、これによってすべての人々の意識が高まり、AI倫理の確立に関する議論が関連企業だけでなく国家レベルでも本格的に始まった。
2月
ネイバーがAI倫理規定を発表
ネイバーは、ソウル大学人工知能政策イニシアチブ(SAPI)とともに「AI倫理規定」を発表しました。2018年にカカオが「アルゴリズム倫理憲章」を発表した後、ネイバーはAIの開発と利用において従わなければならない原則も制定しました。具体的には、「人のためのAI開発」、「多様性の尊重」、「合理的な説明と利便性のバランス」、「安全性を考慮したサービスデザイン」、「プライバシー保護と情報セキュリティ」の合計5つの条項が含まれています。
ちなみに、Twigfarmは8月に「言語処理エンジンLETR倫理原則」も起草しました。これは、人工知能と自然言語処理を専門とする企業として、社会的責任に相応しい倫理原則を検討した結果です。ただし、まだ初期段階であり、社内外のさまざまな意見を集めて改善していく予定ですので、詳細は以下のリンクをご確認ください。
人工知能倫理:03.人間中心の人工知能とLETRの倫理原則
ジェフリー・ヒントンがGLOM(GLOM)モデルペーパーを発表
昨年2月、ディープラーニングのゴッドファーザーであるジェフリー・ヒントンは、次のように述べました。ニューラルネットワークで部分全体階層を表現する方法 (ニューラルネットワークで階層の一部/全体を表現する方法)k)「私はイランという論文を発表しました。この論文では、進化したディープラーニングモデルであるGLOM (GLOM) を提案しています。Glom は脳の類推のモデルであり、これまでの機械学習の限界を超えて、より人間らしい方法で認識できるようになることが期待されています。
行進
国立韓国語研究所が人工知能を学ぶための韓国語教材を2度目に公開
人工知能の韓国語処理能力向上に必要な8種類の学習データ教材のための国立韓国語研究所「みんなのコーパス」(https://corpus.korean.go.krでリリースされました)。これは、昨年8月に13種類の人工知能学習用韓国語コーパスの18億節が公開されたことを受けて公開される追加資料です。この教材は、「みんなのコーパス」でオンライン契約を結び、承認された人なら誰でも利用できます。
5月
「グーグル入出力2021」が人工知能会話モデル「ラムダ(ラムダ)」を発表
毎年恒例のデベロッパーイベント「Google I/O 2021」で、Googleは言語とコンテキストを理解するAI会話モデルである「ラムダ(LamDa)」を発表しました。Lambda は「ダイアログアプリケーションの言語モデル (ダイアログアプリケーションの言語モデル)」の略で、機能を改善することで未回答の質問があっても自然な人間のような会話が可能になる AI 言語モデルです。グーグルのサンダ・ピチャイ最高経営責任者(CEO)は、「あらかじめ決められた答えを学ばなくても自然な会話ができる」とラムダを紹介した。
ネイバー、巨大人工知能「ハイパークローバ(ハイパークローバ)」を発表
ネイバーは、スーパースケール(ハイパースケール)人工知能(AI)である「HyperClova(ハイパークローバ)」を国内企業として初めて発表しました。従来の英語ではなく韓国語をベースにしたGPT-3モデルが登場しました。その後、ネイバーは言語モデルを拡張し、画像や画像を理解できるように開発を続ける予定です。
既存の大規模AI言語モデルの代替となるビッグサイエンスプロジェクト
世界中の研究者が集まってオープンソースのLLMを構築しています ビッグサイエンス (ビッグサイエンス) プロジェクトが開始されました。言語多様性の欠如や有害な言語パターンの学習など、ラムダなどの大規模言語モデル(LLM)の制限と副作用に焦点を当てました。また、このプロジェクトで構築されているLLMは、商用言語モデルを目的としたものではなく、科学界の共通リソースとして利用される予定である。
参考文献
[1] https://www.technologyreview.kr/geoffrey-hinton-glom-godfather-ai-neural-networks/
[2] https://www.technologyreview.com/2020/11/03/1011616/ai-godfather-geoffrey-hinton-deep-learning-will-do-everything/
[3] https://arxiv.org/abs/2102.12627
[4] https://youtu.be/cllFzkvrYmE
[5] https://www.technologyreview.kr/ai-large-language-models-bigscience-project/
[6] https://www.technologyreview.com/2021/05/20/1025135/ai-large-language-models-bigscience-project/
[7] https://www.theverge.com/2021/5/18/22435419/google-io-2021-event-recap-biggest-announcements-pixel-android-12-wear-os-workspace
[8] https://byline.network/2021/05/19-150/