Pages

Thursday, November 30, 2023

企業がサイバー攻撃を「防げる」という考え方は時代遅れ 攻撃を ... - ログミー

tahupedascabe.blogspot.com

今のサイバーセキュリティは「侵入されること」が前提

鈴木暢氏:みなさま、こんにちは。このセッションでは「ログの監視分析とSOCサービス、組み合わせの勘どころ」と題して、ログの分析・監視環境をどのように構成すべきかという情報提供と、ALogを活用した弊社のマネジメントセキュリティサービスについてご紹介いたします。私は、ブロードバンドセキュリティの鈴木と申します。30分弱、お付き合いくださいますようよろしくお願い申し上げます。

では、まずはログ監視・分析の必要性についてお話いたします。みなさまには、釈迦に説法になろうかとは思うんですけれども、本日のお話の前提としてお聞きいただければと存じます。

そもそも、なぜログの監視・分析が必要なのかを整理していきたいと思います。まず一昔前のサイバー攻撃対策では、不正侵入の対策に終始する傾向がございました。例えばファイアウォールやWebフィルタ、IPS、アンチウイルスのツールの導入が具体的な対策手法になっていたかと思います。

これはどういう考え方かと申しますと、「侵入されないこと」が前提でありまして。侵入・被害を受けた状態からの対策は、残念ながら想定していないのが一昔前の実情かなと思っております。

対して現在は、サイバー攻撃自体が非常に巧妙になってきており、みなさまも報道等でご存知のことかと思いますけども、もはや本気のサイバー攻撃を食らったら侵入されることを覚悟しなければならない。そういった状況まできていると考えております。

このような状況を鑑みて大事になってくるのは、この「侵入されること」ですね。これを前提として考えることが、必要な対策になってくるかと存じます。

サイバー攻撃の6つのフェーズ

図示しているのは攻撃者の手口です。これはサイバーキルチェーン(サイバー攻撃が行われる過程をモデル化したもの)や、MITRE ATT&CK(実世界で観測されたサイバー攻撃の手法をフェーズごとに分類してまとめたもの)などで示されている攻撃の手順を簡単に表現したものになります。

「①不正侵入」から、被害を受ける「⑤情報窃取」「⑥破壊」までに、3つほどステップがあるということがわかるかと思います。②から④、「②実行」「③永続化」「④防御回避」ですね。攻撃者がこういった行動をしている間に気づくことができれば、被害を受ける前に攻撃者の行動を止められるというような効果が期待できるかと思います。

仮に⑤とか⑥、情報窃取か破壊までいったとしても、早めに気がつけば攻撃者が完全に目標を達成する前に行動を止められる可能性もあります。いずれにしても侵入されることを前提に対策を考えることで、被害を最小化できます。

では被害を最小化するために、侵入されることを前提としたサイバー攻撃対策としては、どのようなものがあるかを考えていきたいと思います。例えば本日取り上げるログ監視・分析もその1つではありますが、さまざまな対策手法がございます。

EDRやNDR、XDRといったソリューションの利用も手法の1つかと思います。これらの対策の共通的な特徴として、攻撃者の爪痕を網羅的に監視するというところがあります。EDR、NDR、XDR等々のツールは、それぞれに得手不得手があり、当然ながら守備範囲外の観点もございます。

そうしますと組織の特徴に合わせて、独自の監視・分析が必要になるポイントも出てくるかと思います。そういったソリューションを取りまとめたものが、このログの監視・分析です。結論から申しますと、侵入された時に被害を最小限に抑えるための対策として、ログの保管・監視が有効になってくるというところです。

ログの監視・分析の必要性についてご理解いただいたところで、ログの監視・分析が世の中でどのようなポジションにいるかというところを整理してまいりたいと思います。

サイバー攻撃への対策に必須となる「ログの監視・分析」

こちらにいくつか公的なガイドラインを例示しております。まずはみなさんご存知の、経済産業省が出しております「サイバーセキュリティ経営ガイドライン」を見ていきたいと思います。

このガイドラインは、経営者を対象としたサイバー攻撃への対策の原則と、責任部署への指示事項を10個の指示にまとめたものとなっております。この「指示5:サイバーセキュリティリスクに対応するための仕組みの構築」というところで、ログの監視・分析について触れております。

この経営ガイドラインは、現在バージョン3になっておりまして、ちょっと内容が抽象的になっていますけども。「防御だけでは不十分で、検知・分析が必要」という表現をされているところは同じ意味合いになります。

次に日本自動車工業会・日本自動車部品工業会の「自工会・部工会サイバーセキュリティガイドライン2.0版」を見ていきたいと思います。私どもは通称、自工会ガイドラインと呼ばせていただいております。こちらのガイドラインはどのような対策を、どのような優先度で対応すべきかというところを、非常にわかりやすく表現しています。

これは当然自動車産業向けにリリースされているガイドラインではありますが、私どもは、自動者産業といった製造業のみならず、さまざまな業種業体でサイバーセキュリティ対策をする際のガイドラインとして参考になるものと考えております。

長くなりました。この自工会ガイドラインに注目しますと、No.53とNo.145の2つにログ監視・分析に関する技術が具体的に示されております。「No.53:アクセスログは、安全に保管しアクセス制御された状態で管理されている」「No.145:ログを分析し、サイバー攻撃を検知する仕組みを導入している」と、非常に具体的に書かれていますね。

ほかにも、金融、官公庁、水道、交通、重要インフラ、地方自治体、中小企業、教育……とさまざまな分野でガイドラインが出ておりますが、この中でログ監視・分析に触れられていないガイドラインはないと言っても過言ではないと考えております。

したがって各種ガイドラインに示されているとおり、昨今ログ監視・分析がセキュリティ対策に必須であると、世の中的には認識されていると私どもは考えております。

「ログの監視・分析環境」を整備する時のポイント

次にログの監視・分析環境を構築する際の課題と解決策について、お話しさせていただければと思います。特にログの監視・分析環境の整備は、ほかのセキュリティソリューションにはない独特な課題があると考えております。

ここからはログの監視・分析環境を整備するために何が必要かと、その課題に対する解決策としてのSOCサービスの利用の勘どころについて述べてまいります。

ではまずログの監視・分析環境に必要な要素のうち、重要なポイントを「導入時」と「運用時」の2つに分けて示しております。導入時ですが、まずログ収集対象を選定しなければなりません。システムにどのようなログがあって、それをどういうふうに収集するかというところですね。当然ながらログ収集ツールというものを導入する必要もございます。

そして、ログ収集の構成・設定ですね。ログ収集の対象によってどういうふうにログを収集するか、それからどういう設定をすればいいかというところは個々に違うわけで、そういったところに対応していく必要があります。

次にログ分析の方法の確立です。集めただけでは分析になりませんので、それをどうやって監視・分析していくかというところを考えていく必要がございます。次がアラート機能の実装ですね。分析した結果として「これは即時発報してほしい」というようなアラートを決めて、それを実装してまいります。

そのアラートが出てきたあとに、実際にそのアラートがどういう事象だったのかを監視・分析していく必要もございますので、そういった体制の構築も導入時の必要な要素かなと思っております。

ログを集めて分析し、得られた結果をどう判断するか

では運用時について、まずログ収集ツールの維持管理ですね。これはシステムを運用されているみなさま方も、当然だと思われているかと思いますけれども。ログ監視・分析環境の肝となります、ログ収集ツールを維持管理する必要がございます。

それから次が、ログ収集対象の増減対応ですね。ログ収集対象は当然ながら、システムを運用していると減ったり増えたりします。そういったところに対応して、適切にログ収集ツールにログが入ってくるようにしなければいけません。

それからログ監視・分析結果の重要度判断ですね。導入時に考えたログ分析方法、それから実装したアラート機能から出てくるアウトプットの結果ですね。それがどういった重要度を持っているのか、自分たちのシステムにどういう影響があるのかを元に、重要度を判断していく必要があります。

そのためにはログ監視・分析要員を教育する必要もございます。また攻撃手法も世の中が進むに当たってどんどん変わってまいりますので、ログ監視・分析内容の最新化にも対応していかなければならない。最も大事なのは、インシデントが発生した時の報告・対処方法ですね。こういったところにもリソースが必要です。

こちらをご覧いただくと、ログの監視・分析環境の導入・運用には多くのリソースが必要になるというところがわかるかと思います。

課題の根幹は「知識・技術」「リソース」「人材」

では次に導入時の要素と、よくある課題について整理してまいりたいと思います。先ほど、導入時にはさまざまなポイントがあるというお話をしました。

それぞれのログ収集対象を選定するのに、どういったログを集めれば監視・分析に効率的か。その導入に当たってはどういうツールが望ましいか、サーバーのスペックはどういったものが必要かなどですね。

ログ収集の構成設定については、特に収集する対象は現在業務に使われているものが非常に多くございますので、既存業務に影響しないようログを収集するにはどうするかというところも大事になってくるかと思います。

それからログ分析方法の確立ですね。多くの種類、多くの量のログを収集することになりますので、そういったところからどうやって攻撃を見つけるかというところですね。これを見つけるための手法と共に、大量のログから必要なポイントだけをピックアップするアラートをどうするかというところ。

それから体制を構築するに当たっては、ログ監視・分析スキルを持つ人材が必要になりますけれども、この人材は非常に今、希少と言われております。残念ながら採用も教育もなかなか厳しいと言われております。

こういったさまざまな課題が挙げられると思いますけれど、整理しますと課題の根幹は「知識・技術」、「リソース」、それから「人材」。こちらに帰結するものになるかと思います。

一朝一夕では乗り越えられない「課題」への対処法

では同じように、運用時の課題についても整理していきたいと思います。まずツールの維持管理。当然維持管理にもコストが必要になります。ログ収集対応の増減対応、新しい設備が増えた時にどう対応すればいいのか。

特に新しいシステムを導入する時に、そのログをどうやって収集するか。ノウハウがございませんので、それについても調査して対応しなければならないというところですね。

次に、見つけたイベントの重要度をどうやって判断するのか。どういう教育をすればいいのか。当然コストもかかります。

それからログ監視・分析内容の最新化。最新動向をどうやって追いかければいいのか。インシデント発生時の報告・対処については、そもそもどういうふうに対応すればいいのかといった課題がございます。

これも先ほどの導入時と同じように整理しますと、課題の根幹は「知識・技術」「リソース」「人材」に帰結することになろうかと思います。

ここまでお話ししてきまして、あらためてログ監視・分析環境の整備の課題について整理いたします。まず課題①、「知識・技術」と先ほどまとめて申し上げたところが1つです。保全すべきログの種別、監視・分析方法がわからないという課題。

課題②、これは「リソース」ですね。いつ発生するかわからないイベントを常時監視するリソースがないというところ。それから課題③、「人材」ですね。検出したイベントを元に重要度を判断したり、対策方法を検討する専門的な人材がいないというものになります。

これらの課題は、自組織では一朝一夕で解決するものではないと考えております。したがいまして私どもとしては、「専門家の協力を得て解決する方法」を推奨する次第でございます。

自社でセキュリティ対策を実施するメリットとデメリット

専門家の協力を得て解決する方法は、大きく分けて3つあると考えております。まず1つがコンサルティングサービスの利用ですね。もう1つがアウトソーシングサービスの利用。3つ目は専門人材の派遣を要請するという方法があろうかと思います。

ここで3つ目の「専門人材の派遣を依頼する」というところなんですが、当然ながら専門人材は高度な能力が必要となってまいります。現状は業界全体で人材不足のために実現性が低い状況になっており、現実的な方策はコンサルティングを受けるか、アウトソーシングするかの2択になろうかと思います。

先ほどまでのお話を踏まえて、具体的にどのように課題を解決していくべきか。どういうふうに環境を整備していくか。環境整備の方式と、それからログ監視・分析環境の整備ポイントですね。これをマトリックス化し、メリット・デメリットを整理いたしました。

「自組織で整備」は、自分の組織でログ監視・分析環境を整備するという、非常にオーソドックスな手法となります。まずログの収集・保全は自組織で設備を用意します。

ログ分析も自組織の設備を利用しつつ、自組織にSOC(IT機器やネットワーク、デバイス、サーバーなどの監視と分析・サイバー攻撃の検知を行うセキュリティ部門・チーム)を作ってここで分析する。重要度判断も自組織のSOC、インシデント対応も自社CSIRT(実際に起こったセキュリティインシデントの対応を担当する部門・チーム)を使うと。

メリットとしては、最適な対応が可能です。当然自組織ですべてを整備しますので、自組織に最適な対応が可能となります。デメリットとしては自組織に高スキル人材が必要です。この高スキル人材が今、なかなか枯渇していると言われております。

それから最適を追求すると、どうしても高コストになりがちです。カスタマイズはコストがかかるということですね。

アウトソーシングする際のメリットとデメリット

もう1つ対極にあるのが、この「SOCサービスの利用」です。これが典型的なアウトソーシングサービスの利用になるかと思います。ログの収集・保全はサービス設備を使うということで、ログをSOCサービスに送るようなかたちになります。

ログ分析は、サービス設備とSOCサービス(を提供しています)。要するに、サービスにログ分析をお願いするというかたちですね。そうすると重要度判断もSOCサービスになります。当然、インシデント対応は自社CSIRTに対応いただくことになりますけれども、サービスも補完的に利用することができます。

そうするとメリットとしては、自組織に高スキル人材が不要になります。これがサービス利用の最大のメリットです。ただ相応の外部コストが発生するのと、サービスですのでログ保全・参照にサービス側の制限が生じる可能性があります。

それからカスタマイズに応じてくれるサービスは少ないと思いますので、制服に体を合わせるように、サービス側の対応に合わせる必要が出てくるかと思います。

この2つの手法は、当然メリット・デメリット、特徴がございますので、多くの組織が受け入れられるものではないと考えます。そこで2つの手法を組み合わせて、良いところ取りをした「ハイブリッド方式」も、環境整備方式の1つとしてご案内できるかなと思っております。

まず、ログ収集・保全は自組織の設備で対応する。そこは自前でやりながら、ログ分析ではサービスを使うわけですね。自組織の設備に貯まっているログをSOCサービスに見てもらう。重要度判断もSOCサービスに見てもらう。インシデント対応は自社CSIRTで対応しつつ、サービスに支援していただくといったハイブリッドな方法ですね。

非常にメリットが多いです。コストバランスが良く、高スキル人材はいりません。それからログ保全は自社設備でやりますので、自組織の裁量で対応できます。ログ参照に制限もありません。自組織の設備ですので、当然制限はないということになります。

唯一のデメリットは、SOCサービス利用の3つ目に書かせていただいた「サービス側の対応に合わせる必要がある」ところですが、メリットが非常に多いことがわかるかと思います。

24時間365日、ログを監視・分析するSOCサービス

これら3つの環境整備方式も一長一短がございます。よってそれぞれのメリット・デメリットを踏まえて、自組織のリソース状況に応じた選択をするのがポイントかなと思っております。ここがログ監視・分析とSOCサービス利用の勘どころになります。

では、ここからはちょっと営業的なお話になるんですけれども、当社がご提供する「MSS for ALog」をご紹介したいと思います。こちらは、最後にご紹介したハイブリッド方式に対応したログ監視・分析サービスとなります。こちらは来年の1月にリリースする予定となっております。

では簡単にサービス概要を説明してまいりたいと思います。このサービスの特徴は、お客さま環境に設置したALogを用いて、我々のエンジニアがサイバーセキュリティのログを監視するサービスです。

24(時間)/365(日)で監視します。それからインシデントの兆候となるイベントを、我々で分析して検出いたします。リスクの限定のために迅速に対応するところも、我々のサービスの特徴になります。

加えてALogを利用して、お客さま環境のログを一括して監視しますので、セキュリティデバイスの検知だけではわからない事象や影響範囲を、相関分析することで確認できます。これによって、本来お客さまがやらなければいけないインシデント運用に関する労力やコストを削減できると考えております。

このサービス導入によって、ログ保管・監視によりインシデント発生に備えた環境・体制ができることに加え、サイバーセキュリティリスクに効率的に対応する仕組みを構築できると考えております。もう1つ特徴を補足しますと、このサービスは、冒頭でご紹介した自工会ガイドラインを非常に強く意識しております。

ログ収集設備を設置すれば、インシデントから障害まで対応

では、私どもが提供するMSS fot ALogの提供イメージをご案内申し上げます。まずお客さま環境に、ログ収集設備としてALogを設置いただき、いろんなログをALogに集めていただいている環境を想定いたします。

ここに私どものSOCサービスを導入させていただき、ALogの稼働監視をすると共に、イベント関連データを取得して、我々の監視設備でALogが発するイベントを監視します。

これによって、私どものSOCでインシデントの兆候や、稼働監視による障害も検知させていただきます。24時間365日で監視し、インシデント兆候が見つかった場合にはどういった対応が必要かを、私どもSOCからお客さま担当にご案内をさせていただくような提供イメージです。

提供のロードマップとしましては、まず導入というところで、お客さま環境を確認いたします。私ども独自の監視環境・監視機能を導入し、SOCとつないでから、各種連絡ポリシー・フローを策定いたします。初期導入の準備ですね。セットアップと呼ばせていただいているのが、このステップ1になります。

監視対象のログによって異なる、2つの選択肢

次のステップ2はチューニングですね。実際に連携いただいたイベントをモニタリングして、お客さまに最適な監視条件を提供できるように分析・検討いたします。これによって過検知イベントを抑止し、お客さま環境に合わせた閾値の設定をしてまいります。

このステップ2から運用に入っていくんですけれども、チューニングの最中は非常に重要度の高いイベント連絡以外は、ベストエフォートの対応になっております。

チューニングが終わりましたら、ステップ3のモニタリングということで、実際の監視が始まります。イベントモニタリング、過検知判定、検知内容・対処案の提示、それから定期レポーティングを提供してまいります。

サービスプランは、プランAとプランBの2つをご用意しております。それぞれの違いは、監視対象ログが違うというところになります。まずプランAは、プロキシ、IPS/IDS、ファイアウォール、エンドポイントを監視対象ログとします。

プランBはさらにこの4つに加えまして、メール送受信、認証サーバー、リモートアクセス、アプリケーション操作ログ、重要システムのアクセスログ。プランBは9つのログを監視するサービスになっています。

それぞれの監視対象ログの選び方が、まさに自工会ガイドラインを意識したプランニングになっております。プランAは自工会ガイドラインのレベル2を意識しております。プランBは自工会ガイドラインでは最高のレベル3ですね。こちらの準拠を目的としたプランになっております。

それぞれプロキシ、IPS/IDS等々、監視対象ログもいろんなデバイスがあるかと思いますが、標準で対応しているデバイスをここに示しております。この標準デバイス以外にも対応できるものがいくつかありますので、こちらはお客さまの環境に合わせてご相談いただければと思います。

最も効果的な進め方は、自社と専門家による役割分担

まとめとしまして、まずログの監視・分析ですね。こちらは侵入前提のセキュリティ対策が必須と言われております。そして、ログの監視・分析の環境整備には、新たな知見・リソース・人材が必要であり、環境整備の課題となると予想されます。この課題解決には、専門家の協力を得て解決する方法を推奨いたします。

この監視・分析環境の構築・運用は、自組織と専門家が役割を分担することで、最大の投資効果を得られると考えております。その観点から、自組織のログ監視・分析環境の整備のため、私どもブロードバンドセキュリティのMSS for ALogを、ぜひともご検討いただければと存じます。

最後になりました。私どもブロードバンドセキュリティは、本日紹介したMSS for ALogのみならず、サイバーセキュリティ対策に関連したサービスを幅広くご提供しております。

サイバーセキュリティ対策に関するお悩みがございましたら、お気軽に私どもブロードバンドセキュリティにご相談いただければと存じます。ご清聴いただきまして、誠にありがとうございました。

Occurred on , Published at

Adblock test (Why?)


からの記事と詳細 ( 企業がサイバー攻撃を「防げる」という考え方は時代遅れ 攻撃を ... - ログミー )
https://ift.tt/TNfHvi3

Wednesday, November 29, 2023

eBPFのKubernetesセキュリティツールTetragonがパフォーマンスと ... - InfoQ Japan

tahupedascabe.blogspot.com

原文リンク(2023-11-07)

Isovalent社は、eBPFベースのKubernetesセキュリティオブザーバビリティ(可観測性)とランタイム強制ツールであるCilium Tetragonの1.0リリースを発表した。eBPFを介してポリシーとフィルタを直接適用して、プロセスの実行、特権の昇格、ファイルとネットワークのアクティビティを監視できる。

Tetragonは、セキュリティとランタイム・エンフォースメントの実行に使用できる。Kubernetesを意識しており、名前空間やポッドといったKubernetesの概念を理解する。TetragonはHelmを使ってKubernetesクラスタにデプロイできる。Tetragronはデフォルトでprocess_execprocess_exitイベントを生成し、より高度なユースケース向けにprocess_kprobeprocess_tracepointprocess_uprobeイベントを生成できる。

1.0リリースでは、Tetragonの安定性とパフォーマンスが改善された。このリリースの主な焦点は、Tetragonを実行する際のパフォーマンス・オーバーヘッドを大幅に削減である。Isovalent社のCTOであるThomas Graf氏は、最悪のケースのベンチマークテストにおいて、"Tetragonのプロセス実行トラッキングは、最小1.68%のオーバーヘッドを追加し、全てのプロセス実行イベントをJSONとしてディスクに書き込む場合は、わずか2.46%のオーバーヘッドしか追加しない "と指摘している。Graf氏は、このテストは6.1.13 Linuxカーネルをビルドし、標準的なユースケースよりも大幅に多いイベント量を生成することで実施されたと述べている。

このリリースでは、デフォルトの可観測性ポリシーのライブラリも追加されている。これらのポリシーは、カーネル・モジュールのロードの監視、/tmp内のバイナリ実行の検出、sshdによって開始または受け入れられた接続の監査ログ、sudo呼び出しの追跡などのシナリオをカバーしている。ポリシーの適用はkubectlを使って行う。

kubectl apply https://raw.githubusercontent.com/cilium/tetragon/main/examples/policylibrary/modules.yaml

ポリシーはそのまま使うこともでき、テンプレートやベストプラクティス・ガイドとして使うこともできる。Graf氏は、ポリシーは「特定のユースケースに有用な方法で生ログをフォーマットするための、ベストプラクティスのjqフィルター」の例を提供すると述べている。Tetragonは、軽量のコマンドラインJSONプロセッサであるjqを活用している。

TetragonはeBPFでラベルと名前空間フィルタを提供し、Kubernetesのメタデータに対する効率的なフィルタリングと、特定のKubernetesワークロードに対するポリシーの適用を可能にする。以下のポリシー・スニペットは、setuid()システムコールを監視し、プロセスがapp=sensitive-workloadというラベルを持つKubernetesポッド内で実行されている場合、それへのあらゆるコールをログに記録する。

apiVersion: cilium.io/v1alpha1kind: TracingPolicymetadata:  name: "monitoring-gaining-root-access-on-sensitive-workloads"spec:  podSelector:    matchLabels:      app: "sensitive-workload"  kprobes:  - call: "sys_setuid"    syscall: true    args:    - index: 0      type: "int"    returnArg:      index: 0      type: "int"    returnArgAction: "Post"

一致するアクションが検出されると、Tetragon はイベントを生成し、Tetragon CLI 経由でレビューしたり、追加分析のために SIEM に渡すことができる。

eBPF は、 可観測性とセキュリティ・ツールを強化するためのツールとして、着実に地歩を固めつつある。 可観測性とセキュリティ監視に eBPF を使うオープンソースの代替ツールには、PixieInspektor GadgetCorootparcaGranfa BeylaOpenTelemetry eBPF プロジェクトなどがある。

TetragonはApache-2.0ライセンスのオープンソースで、GitHubで入手できる。1.0リリースの詳細はIsovalentブログで参照できる。

作者について

Adblock test (Why?)


からの記事と詳細 ( eBPFのKubernetesセキュリティツールTetragonがパフォーマンスと ... - InfoQ Japan )
https://ift.tt/70IxGke

ポスト・トゥルースとは・意味 | 世界のソーシャルグッドなアイデアマガジン - IDEAS FOR GOOD

tahupedascabe.blogspot.com

ポストトゥルース

ポスト・トゥルースとは

ポスト・トゥルース(post-truth)とは、世論形成という点で、個人の感情や信念の方が、客観的事実よりも人々の意見に影響力を持つ状況を意味する言葉である。日本語で「ポスト真実」「脱真実」と表されることもある。

オックスフォード辞典によるポスト・トゥルースの定義を直訳すると「客観的事実が、感情や個人的信念に訴えるよりも世論形成への影響力が弱い状況に関連する、またはそれを示す」となる。

ポスト・トゥルースという言葉ができるまで

ポスト・トゥルースという言葉は、辞書を出版するイギリスのオックスフォード大学出版局が毎年11月に発表する「Word of the Year」(日本でいう「流行語大賞」)にて、2016年に大賞に選ばれた。

しかし、現在の意味でのポスト・トゥルースという言葉が初めて使われたのは、1992年に遡る。1992年、アメリカの週刊誌『ネイション(The Nation)』で、セルビア系アメリカ人劇作家のスティーブ・テシックがウォーターゲート事件とイラク戦争について書いたエッセイの中で以下のように述べた。

“we, as a free people, have freely decided that we want to live in some post-truth world”.
私たちは自由な国民として、あるポスト真実の世界に生きたいと自由に決めた。

なお、イギリス・ガーディアン誌の記事によると、ポスト・トゥルースという言葉はテシックの記事以前にも使われていた形跡があるが、「真実が知られた後」という意味合いで用いられており、真実そのものが無意味になったという新しい意味合いでは使われていなかった、と書かれている。同記事で、オックスフォード大学出版局は近年、接頭辞“post-”の意味が広がっていることを以下のように指摘している。

「post-truthでは、“post-”が戦後や試合後のように、特定の状況や出来事の後の時間を単に指すのではなく、『特定の概念が重要でなくなった、あるいは無関係になった時間に属する』という意味を持つようになった」

このニュアンスは20世紀半ばに生まれ、post-national(1945年)やpost-racial(1971年)といった形で使われてきたという。

時を経て、ポスト・トゥルースは概念的な発展を遂げる。2004年、アメリカ人作家のラルフ・キーズが『ポスト真実の時代(The Post-Truth Era)』という本を出した。キーズは当時、私たちがポスト・トゥルースの時代に生きているのは、その信条が私たちの間に定着しているからだと指摘し、装飾された情報が、真実そのものよりも真実であるかのように提示されることを示した。

2016年、ポスト・トゥルースは「Word of the Year」に選ばれ、広く知られるようになった。ポスト・トゥルースが選ばれた背景には、2016年のこの言葉の使用される量が前年と比較して約2,000%増加したことが挙げられている。使用量が急増した背景には、同年イギリスで行われたブレグジット(EU離脱)の国民投票、アメリカの大統領選挙があげられている。

ポスト・トゥルースを生み出す社会的背景

ポスト・トゥルースという概念が言語的な足場を固めつつある背景には、ニュースソースとしてのソーシャルメディア(SNSやブログ、電子掲示板など)の台頭と、既成事実に対する不信感の高まりがあげられる。

ソーシャルメディアそのものは悪ではないものの、ソーシャルメディアを含むあらゆるメディアの悪用が、ポスト・トゥルースを生み出す要因とされる。スペイン・ナバーラ大学のマルティン・モントヤ・カマーチョ教授は「ポスト・トゥルース時代は、インターネット上のコミュニケーション・プラットフォームに毎日アップロードされるほとんど中傷に近い侮辱的なコメントや、同じメディア・ソースに投稿されるコメント(多くの場合、匿名)を通じて機関の信用を落とすような、インターネット上のフェイク・ニュースの拡散を指す」と記している

SNS(Social Networking Service:ソーシャル・ネットワーキング・サービス)の普及も原因としてあげられる。SNSの普及により、個人的な意見を誰でも簡単に世に表明できるようになり、多くの情報を瞬時に拡散できるようになった。しかし、個人的な意見の影響力が強まったこと、フェイクニュースなど事実と異なる情報が短時間で世界中に広まってしまうことから、オールドメディア(テレビやラジオ、新聞、雑誌など)の影響力が相対的に低下し、客観的事実が軽視されるようになったともいえる。

またガーディアン誌の記者であるキャサリン・ヴィナーは「How technology disrupted the truth(テクノロジーはいかに真実を破壊したか)」という記事の中で、ポスト・トゥルースの背景には特定の社会的・政治的スタンスを代弁する一部のデジタルメディアにおける意図的な事実誤認があることを指摘する

一部のデジタルメディアにおける意図的な事実誤認の他、飯田豊『SNSをめぐるメディア論的思考-常時接続社会におけるマスメディアとの共振作用-』(通信ソサイエティマガジン No.52 春号、2020年)で取り上げられている「ネットの不安や憎悪を拡散する」テレビのニュースや、若年層の間で、“検索エンジンに対する信頼性の低下、一部のまとめサイトに対する忌避感などが影響し”、“SNSで情報を発信している主体のうち、最も信用できるのは「友人」”という現状が生まれたことも、既成事実に対する不信感を高めることにつながっているといえよう。

加えて、ガーディアン誌のヴィナー記者は、フェイスブックやグーグルなどの検索エンジンのニュースソースに供給されるアルゴリズムが、大衆が望むものを提供するように設計されているため、私たちが毎日、ポータルサイトを開いたり、検索エンジンで検索したりする時に見つける世界の情報が、閲覧者の信念を強化するように、目に見えない形でフィルタリングされている、と説明する。

ポスト・トゥルースの具体例

ポスト・トゥルースの具体例には、SNSによるフェイクニュースの拡散などがあげられる。そして「ポスト・トゥルース政治」と呼ばれるものもまた、ポスト・トゥルースの具体例といえる。

ポスト・トゥルース政治(Post-Truth Politics、ポスト真実政治、ポスト事実政治、ポスト現実政治とも呼ばれる)は、政策の詳細から切り離された感情への訴えや、事実に基づく反論が無視される論点を繰り返し主張することによって、議論が大きく組み立てられる政治文化を指す。

ECPS(The European Center for Populism Studies:欧州ポピュリズム研究センター)のウェブサイトには、2018年時点で政治評論家たちが、オーストラリア、ブラジル、インド、ロシア、イギリス、アメリカなど多くの国でポスト・トゥルース政治が台頭していると指摘している、とある

ポスト・トゥルース政治は、他のポスト・トゥルースの議論分野と同様に、ニュースが24時間ひっきりなしに配信されることやバランスの誤った報道体系、ソーシャルメディアがますます偏在化していることなどの複合的な要因によって引き起こされている。

なお、ポスト・トゥルース政治は現代の問題として語られることが多いが、インターネットや関連する社会的変化の出現以前にはあまり目立たなかっただけで、長年にわたる政治のありかたの一部であると評する専門家もいる。

ポスト・トゥルースへの対策

個人であっても、マスメディアにおいても、情報リテラシーを高めることが求められる。以下は、ポスト・トゥルースを取り巻く現状と、考えられる対策である。

ファクトチェック(事実確認)についての取り組み

情報リテラシーを高める方法の一つに「ファクトチェック」があげられる。総務省はファクトチェックについて「社会に広がっている真偽不明の言説や情報が事実に基づいているかを調べ、正確な情報を人々と共有する『真偽検証』活動」と定義づけている。

アメリカでは2007年から「ポリティファクト(PolitiFact)」というサイトが活動している。ポリティファクトは2008年、St. Petersburg Timesの名称で活動していた頃、大統領選挙に関する750以上の言説を検証したことで、優れたジャーナリズムをたたえるピュリッツァー賞を受賞している。2015年には、国際ファクトチェッキング・ネットワーク(IFCN)という団体が設立された。「Snopes.com」のような事実検証サイトもある。

日本で総務省が2023年7月4日に公開した「情報通信白書」では、日本は他国と比べて、「ファクトチェック」自体の認知度が大幅に低いことが明らかとなっている。

もちろん、ファクトチェックは万能ではない。谷口将紀『問われる政治とメディアの緊張感』(わたしの構想 第31巻 p.4-7、2017年)の一文を以下に引用する。

もちろん、ファクトチェックにも課題は残る。虚偽が広まる前に正確な検証を行うスピードとコスト負担の両方が必要な上、検証結果が「この部分は正しいが、その部分は誇張、あの部分は誤り」などと読みづらい記事になってしまうこともしばしばだ。さらに、真正性よりも自分との親和性を情報選別の基準にする人びとが、ファクトチェックを受け入れるとは限らない。

リテラシーの高い情報収集のためにできること

目の前の情報が「偽」か「本物」かを見分ける術はない。すべての情報には、時にはデータでさえも、発信者のバイアスが含まれているからだ。

しかし、日々の情報収集のなかで対策をすることはできる。アメリカ・ベネディクティン大学はファクトチェックのスキルを身につける方法と題し、フェイクニュースの見分け方を紹介している。

まず勧められているのは、その記事を書いた記者の資格や経歴を確認することだ。フェイクニュースを書いた記者が、記事に関係する分野の専門家かどうか、現在その分野で働いているかどうかを確認し、著者がその記事の内容を正確性をもって語れるかどうかを確認する。

記事の情報源を確認することも重要だ。記事で情報源が引用されている場合には、それを確認する。公式団体のように見えて、実は偏ったシンクタンクであったり、大勢の人々のほんの一部の意見しか表していなかったりする場合もある。出典が見つからない場合は、そのトピックについてできるだけ多くの記事を読み、すでに世に出ている情報と照らし合わせ、その記事が正確かどうかを判断していく。

また、以下のような内容がファクトチェックには有効だとして挙げられている。

  • 会社概要を読む:そのリソースに「どのような会社/団体が運営しているか」の情報はあるか。ページ上部のタブにある場合もあれば、ページ下部のリンクにある場合もあるが、会社概要や連絡先が記載されていることを確認する。合わせて、記載されている会社概要を読む
  • 日付を確認する:卵や牛乳のように、情報にも賞味期限がある場合がある。その記事が最新の情報か否かを確認する
  • URLを調査する:近年、ドメインが操作されているのをよく見かける。例えば、.eduドメインのように見えて、その後に.coや “lo”がついているものは、偽サイトや欺瞞的なサイトである可能性が高い。 有名なURLによく似た、少し変わったドメインを見かけたら、少し調査してみよう。センセーショナルな内容を疑う:センセーショナルな内容の記事や投稿を見かけたら、疑うことが重要だ。大文字を多用した誇張された挑発的な見出しや、感情的な表現には注意したい
  • 自分に厳しい判断をする:もしあなたが読んでいるものが、事実にしては出来すぎていたり、極端に自分に都合の良すぎる情報であれば、疑ってみるといい

他にも、「ブラウザでニュース記事を開いたら、2つ目の空のタブを開く」というアイデアもある。これは2つ目のウィンドウを使って、記事中に出てきた主張、著者の資格、団体を調べることを推奨するものだ。

調べ物をする際には、検索する際の自分の態度や偏りをチェックするよう、注意が呼びかけられている。検索する際には、「検索するキーワードに偏りはないか?」「 自分の信念を裏付ける情報に注意を払い、そうでない証拠を無視していないか?」と自分に問いかけてみよう。

視点の偏りを知る際に便利なウェブサイトには、例えばウォール・ストリートジャーナルが運営する「Blue Feed, Red Feed」と「AllSides」というニュースサイトがあげられる。「Blue Feed, Red Feed」では、一つのトピックスに対する保守派とリベラル派のフェイスブックの投稿を確認でき、「AllSides」では、右派、左派、中立派の異なる視点の意見にアクセスできる。

「写真を疑え」ともある。すべての写真が真実を語っているわけではない。グーグルの逆画像検索は、画像の出所やその可能性のあるバリエーションを発見するのに役立つ(この拡張機能を使用すると、検索した画像がどのウェブサイトからのものであるかを見つけることができる)。

ポスト・トゥルースとの付き合い方

最後に、ベネディクティン大学のユニークな文言による注意喚起を紹介する。

『ハリー・ポッターと炎のゴブレット』でマッド=アイ・ムーディが言ったように「不断の警戒!」 常に事実確認の準備を怠らないこと。

ポスト・トゥルースは、客観的事実よりも感情的要素の方が人々の意見形成に大きな影響を与えうる状況を示しているが、客観的事実を受け取る前に感情的要素に飲み込まれそうになったら、目の前の記事やメディアを、そして自分自身が感情的になり過ぎていないかを一度疑ってみてほしい。

【参照サイト】The era of post-truth, post-veracity and charlatanism. Grupo Ciencia, Razón y Fe (CRYF). Universidad de Navarra
【参照サイト】‘Post-truth’ named word of the year by Oxford Dictionaries | Reference and languages books | The Guardian
【参照サイト】The Post-Truth Era: Dishonesty and Deception in Contemporary Life
【参照サイト】SNSをめぐるメディア論的思考
【参照サイト】How technology disrupted the truth | Media | The Guardian
【参照サイト】Post-Truth Politics – ECPS
【参照サイト】〈ポスト真実〉の時代としての現代
【参照サイト】ポスト・トゥルースの時代とは
【参照サイト】日本におけるファクトチェック活動の現状と課題
【参照サイト】2.2 各地のファクトチェック活動 ①ポリティファクト (PolitiFact)
【参照サイト】情報通信白書(令和5年版)
【参照サイト】Media Literacy or Fake News: Develop Your Fact-Checking Skills – Research Guides at Benedictine University Library
【参照サイト】Media Literacy or Fake News: Develop Your Fact-Checking Skills: Tips & Tricks

ポスト・トゥルースに関する記事の一覧

Adblock test (Why?)


からの記事と詳細 ( ポスト・トゥルースとは・意味 | 世界のソーシャルグッドなアイデアマガジン - IDEAS FOR GOOD )
https://ift.tt/jcAxEud

髪の毛の太さよりも小さな動きを検出できる超小型レーダーを開発 - fabcross for エンジニア

tahupedascabe.blogspot.com

Omeed Momeni/UC Davis

カリフォルニア大学デービス校(UC Davis)の研究チームは、安価でエネルギー効率に優れたセンサーのプロトタイプを作成した。このゴマ粒ほどの超小型センサーは髪の毛の幅よりも小さい微小変位を検出できる。物体の動きをミクロのスケールで検出することができるこの超小型センサーは、セキュリティー、バイオメトリックモニタリング、視覚障害者の支援など、幅広い応用が期待されている。

UC Davisのこのプロジェクトは、電気・コンピューター工学科のOmeed Momeni教授の研究室が主導し、FFAR(Foundation for Food & Agriculture Research)が資金提供する、個々の植物の水の状態を追跡できる低コストセンサーを開発する、進行中のプロジェクトの一環だ。研究成果は、『IEEE Journal of Solid-State Circuits』の2023年9月号に掲載された。

この実証実験装置には、ミリ波レーダー技術が使われている。ミリ波は30~300ギガヘルツの電磁波で、マイクロ波と赤外線の中間に位置する。5Gのような高速通信ネットワークに使用され、短距離のセンシング能力で広く注目されているが、現在開発されているミリ波センサーの多くは、消費電力とバックグラウンド・ノイズのフィルタリングに関する問題に直面している。研究チームは、このノイズの問題を克服するためにセンサーの設計と構造を一新した。

研究チームリーダーで博士課程の学生だったHao Wang氏は、教授とのミーティングで、技術的な制約を回避するためのインスピレーションを得た。ノイズをノイズ自体で打ち消してみてはどうか。Wang氏はまさにそれを実現するための博士論文用のチップ設計を仕上げていた。研究チームはWang氏のアイデアをテストするためのプロトタイプを素早く組み立てた。その試作品は1回目で成功した。

このセンサーは、65nmプロセスCMOSで110mW出力のドップラーレーダーとして、4μmの静的レンジ精度と39nmの振動(10kHz時)レンジ感度を達成した。これは、世界最高レベルのセンサーだ。さらにこのデバイスは製造も簡単で安価であり、ミリ波センサーのエネルギー効率を大幅に向上させる独自の設計を特徴としている。研究チームは、FFARプロジェクト以外では、建物の構造的完全性を検出したり、バーチャル・リアリティ(VR)を改善したりするのに有望だと考えており、大きな可能性を秘めていると信じている。

関連リンク

‘Impossible’ Millimeter Wave Sensor Has Wide Potential | UC Davis
A Highly Accurate and Sensitive mmWave Displacement-Sensing Doppler Radar With a Quadrature-Less Edge-Driven Phase Demodulator | IEEE Journals & Magazine | IEEE Xplore

Adblock test (Why?)


からの記事と詳細 ( 髪の毛の太さよりも小さな動きを検出できる超小型レーダーを開発 - fabcross for エンジニア )
https://ift.tt/PmDs3wZ

サイバーエージェントが手がける日本語LLM開発 MLエンジニアが ... - ログミーTech

tahupedascabe.blogspot.com

登壇者の自己紹介とアジェンダの紹介

石上亮介氏:それではサイバーエージェントの石上から、「CyberAgentにおける日本語LLMの開発」というタイトルで発表いたします。

あらためまして自己紹介ですが、私は石上と申します。現在は、サイバーエージェントの基盤モデルプロジェクトのリードを担当しています。

基盤モデルというのは、大規模なAIでさまざまなタスクがこなせるという、いわゆるすごいAIなんですね。今日は特にLLMですね。大規模言語モデルについて、どういう取り組みをしているかをお話しいたします。

サイバーエージェントのLLMの開発に関するリリースをいくつか出しています。例えばH100ですね。「NVIDIA DGX H100」というGPUリソースを社内に導入しました。

あとは2023年5月ですかね。(2023年5月に)、68億パラメーターの日本語LLMを一般公開したというところで、いくつかリリースを出しています。本日は、特にこの右側のLLMの開発についてや、2023年6月以降にどういった進展があったかについてをお話しさせていただきたいと思います。

そもそも大規模言語モデルとは何か?

トップバッターということで、そもそも大規模言語モデルとはどういうものだっけ? とか、どういうふうに学習させるんだっけ? というのを簡単に振り返りたいと思います。

まずは、大規模言語モデルの中で代表的なGPT-3についてですが、GPT-3はOpenAI社が2020年に発表した大規模言語モデルです。学習の仕方ですが、ある文章に続く文章を予測するタスクを解かせるということで、例えば「サイバーエージェントは」という入力があった時に、その続きとして、「21世紀を代表する会社を創る」という文章を予測する、非常にシンプルなタスクを解かせています。

非常にシンプルではありますが、文章生成、要約、翻訳など、さまざまなタスクが解けるようになっています。1億パラメーターから1,750億パラメーターという非常に大きなサイズでこのような学習を行うことによって、このようなさまざまなタスクが解けるようになったと報告されています。

(スライドを示して)こちらがいわゆる大規模言語モデルにおける事前学習と呼ばれるステップなのですが、事前学習を行ったLLMには課題があります。事前学習を行っただけの素のLLMは、指示を出してもうまく従わないことが多いです。私たちが「ChatGPT」などといわゆる対話を行う時というのは「〇〇について教えてください」とか「〇〇してください」と指示をして、それに対するアウトプットをもらうという使い方をしていると思うんです。

ですが事前学習を行っただけだと、なかなか指示に従ってくれないというところが知られています。こちらですが、Webのテキストを中心に学習されているので、いわゆる文章の続きを生成したり、似たような文章を繰り返してしまう傾向や、文章をどこで終わらせるかがうまく判断できないという特徴があります。

こうした性質は、Googleの開発した「PaLM」と呼ばれる、5,400億パラメーターという非常に大きなモデルでも知られていて、素のLLMにはこうした課題があります。一方で、そうしたモデルに対してInstruction Tuningという指示形式の学習を行うことにより、適切な応答を返すようになります。

ChatGPTのいわゆる賢さに対して私たちユーザーが思うところは、まずは1つ目として指示チューニング、Instruction Tuningが非常に大きな部分を占めています。

Instruction Tuningの他に、さらに性能を上げるコツとして、Alignment Tuningという手法があります。手法というか概念、コンセプトですね。

より人間にとって使い勝手を良くしたり、より人間の価値観に合う出力をさせたりするために、例えばHelpful、Honest、Harmlessのような、人間にとってより正しいとされる基準を基にチューニングを行うというのがAlignment Tuningです。

具体的な手法として、レインフォースメントラーニング。強化学習のような手法が使われることもあります。というわけで、私たちが使っているChatGPTのような便利なLLMは、元をたどると大規模言語モデルというのがあって、これは事前学習として文章の続きを予測させるという、非常にシンプルなタスクを解かせています。

そうして出来上がったLLMに対して、指示形式でのチューニングや、より人間の価値観に合わせる学習や、対話形式ですね。チャットの場合は対話形式でチューニングを行うことによって、ChatGPTのような便利なLLMはできています。というわけで、ここまでが5分でわかるLLMでした。

事前学習をうまく行うためにはコーパスが必要

というわけで本題ですが、CyberAgentLM(CALM)の開発について、ここからお話ししたいと思います。

先ほども述べたとおり、言語モデルの開発の流れというのは事前学習、それから指示データによる追加学習というステップを踏みます。

事前学習をうまく行うためには、学習のデータであるコーパスというものを整備する必要があります。例えばLLMの学習に使われるコーパスとしては、(スライドを示して)このようなものが挙げられます。日本語のデータセットとしては、Wikipedia、mc4、CC100のようなデータがありますし、海外の英語のデータセットとしては、Pile、Redpajama、それからRefinedwebと言われるようなデータセットがあります。サイズを比較してみると、最近出てきたRedpajamaやRefinedwebは5TBということで、非常に大きなコーパスとして存在しています。

一応日本語でも、例えば830GBのmc4など、そこそこのサイズのコーパスはありますが、実はこのmc4に関してはかなりノイジーなデータ、汚いデータが含まれているので、コーパスのクリーニングを行う必要があります。

コーパスのクリーニングというのは、例えば左側が元データとしてあった時に、メールアドレス、Webサイト、コメント送信などの不要な文字列を削除してあげたり、そもそもそのページ全体がLLMの学習には適さないというのも多分に含まれているので、こうしたものに対して事前にクリーニングを行う必要があります。

実はこのコーパスのクリーニングは、LLMの学習にとっては非常に重要なポイントとなっていて、例えば先ほど挙げたRefinedwebというデータセットだと、このように何段階もフィルタリング処理を経て、より高品質なデータセットを作るということを行っています。こうして出来上がったデータを使って、次はLLMの事前学習を行っていきます。

今現在、事前学習のためによく使われているライブラリとして、(スライドを示して)このようなものが挙げられると思います。例えばNVIDIAのMegatron-LMは、非常に有名なライブラリで、microsoft/Megatron-DeepSpeedやgpt-neoxというライブラリは、基本的にこのMegatron-LMをベースにして作られています。

あとは最近だと、mosaicmlからllm-foundryという新しいライブラリも出てきています。最近は弊社も含めて、日本語のLLMもいろいろ出ていると思いますが、開発でよく使われているのは、このgpt-neoxかと思います。

CyberAgentLMでは「Weights&Biases」を活用

というわけで、ようやくCyberAgentLMの話です。5月に公開したCyberAgentLMは、パラメーター数がモデルの大きさを表す指標になっていて、CALM-Smallから130億パラメーターまでを構築しています。学習データとしてはWikipedia、mc4、CC100などを使っていて、学習にはNVIDIA A100を数週間から数ヶ月、それぞれ使っています。

pplというのはざっくりと言うと、性能を表す指標と考えていただいていいのですが、それが小さいほど良いということで、パラメーター数が増えていくごとに性能が上がっていることが確認できます。この中で70億パラメーターまでのモデルを「Huggingface Hub」にて、5月に公開したというニュースが、冒頭で紹介したリリースです。

実際に開発を行っていくと難しい部分が非常に多くあり、例えば学習途中で勾配爆発で失敗してしまうということがあります。こちらはロス曲線ということで、下がっていくと学習がうまくいっているよというところになるのですが、横軸が時間ですね。時間が減るごとにロスが下がっているように見えるのですが、突然爆発してしまうということが起きてしまいます。

こうなってしまうと、やり直しがきく場合もありますが、きかない場合ももちろんあります。そうなるとコストや時間をかけた実験が無駄になってしまうということで、非常に大きな問題となっています。こうした問題というのは、例えばAIベンチャーのABEJAさんや、アカデミアの方々のLLMを作る取り組みの中でも報告がされていて、うまく学習させるようにいろいろと試行錯誤をする必要があります。

ちなみにこうしたモニタリングや、実験がうまくいっているかというところで役に立つのが、「Weights&Biases」というサービスです。具体的にWeights&Biasesで具体的に使っている部分として、例えば実験の比較ということで、さまざまな条件を変えて実験を比較してどういう違いがあるかを視覚的に非常にわかりやすく可視化できます。

あとはこのような実験をレポートする機能があって、レポートにまとめることで、チーム、もしくは外部の人向けにわかりやすくそのまま伝えることができるので、非常に欠かせないものになっています。

あと、個人的に非常に重宝しているのが、学習失敗時にメールで通知をしてくれる機能です。こちらは「学習が失敗して何分後」という設定ができるのですが、失敗したらこういうふうにメールが届いて、例えば出先であってもすぐに確認して、接続して、実験をやり直すことも可能です。ちなみにこちらの通知機能は、メール以外にも「Slack」や、その他の媒体にも通知を飛ばすことができるので、いつでも学習を見守ることができ、LLMの学習の際には非常に役立つ機能となっています。

学習の最後の段階でCALMのInstruction Tuningということで、最後に指示形式でCALMをInstruction Tuningしてみました。ということで、(スライドの)左側が学習データとなっていて、例えば「小規模なビジネスの起業についてアドバイスを教えてください」。「小規模ビジネスを起業するには、以下のアドバイスがあります」というような、指示と応答形式のデータを学習させる。

学習させることによって、(スライドの)右側が生成例になるのですが、例えば「魅力的な広告を作るコツを教えてください」と書くと、「以下のようなコツがあります」ということで、指示にうまく従って回答してくれるようになりました。ということで、事前学習からInstruction Tuningまで日本語モデルを作って、そこから指示形式でチューニングを行うことができたというのが結果です。

次の世代の言語モデル「CALM2」を開発中

というわけでここまでが、6月までにやっていたり、紹介していたことなのですが、ここから新しい取り組みについてお話ししたいと思います。

今現在、CALM2と呼ばれる次の世代の言語モデルを開発しています。(スライドの)左側がCALM1、そして右側がCALM2ということで比較しています。大きな違いとしては、アーキテクチャがLLaMaベースに変わったり、あとはcontext_lengthが2,048から4,096と2倍になっていたりします。

他に大きな違いとしては、学習データ量を10倍以上、1兆トークンと10倍以上に増やして学習を行っています。ちなみに(スライドの)右側が、CALM2の学習曲線なのですが、1兆トークンまで学習させてもロスがどんどん下がっている状況で、学習データをどんどん増やしてもまだまだ性能が伸びそうだぞということがわかってきています。

ちなみにCALM1の時はA100を使って1,000億トークン学習させていたのですが、CALM2は社内にH100と呼ばれる新しいGPUを導入して、1兆トークンという大きなデータ量も学習させられるようになっています。H100とA100の速度比較を社内で行いました。(スライドを示して)こちらがLLMの学習においてA100、8枚と、H100、8枚を比較したものです。

いろいろ指標はあるのですが、例えばflops計算で計算すると、だいたい約2.57倍というところで、かなり効率的に学習ができるようになっています。H100の新たな機能として、Transformer Engineと呼ばれる機能があり、こちらはトランスフォーマーアーキテクチャの学習により特化して効率的に学習が行える機能で、ちょっとまだ検証はできていませんが、こちらを導入することで、さらに高速化するんじゃないかと期待をしています。

CALM1とCALM2で性能はどう違うのか

というわけで、CALM1とCALM2で、どのくらい性能が変わったのかという話ですが、こちらは複数タスクで評価を行っています。(スライドの)左側のJGLUE、OpenQA、RCQAが日本語のタスク、それからARC、HellaSwag、TruthfulQAが英語のタスクです。CALM1とCALM2を比較すると、平均スコアがだいたい20ポイント以上上がっていて、かなり性能が高くなっています。

例えばJGLUEで見てみると、20ポイントほど性能が上がっていて、学習データ量や学習自体にも工夫をいろいろと取り入れているのですが、行うことによってかなり性能が高くなっています。

次は、Ablation studyということで検証したものですが、英語データと、日本語データのサンプリングの割合の違いを検証してみました。ここでは2つのモデルを比較しています。1つ目が日本語を中心に学習したモデル、2つ目が英語を中心に学習したモデルで、それぞれパラメーター数は70億パラメーターで、学習データ量は1,000億トークンとなっています。

その内訳として、モデルA(日本語中心)は日本語が57パーセント、英語が31パーセント。英語中心のモデルは日本語が33パーセント、英語が55パーセントという割合になっています。(スライドの)下に結果を載せていて、このタスクについては先ほどのスライドと同様で、わかりやすいと言えばわかりやすい結果なのですが、モデルAについて日本語を中心に学習したモデルは日本語のスコアが高い。

英語を中心に学習させたモデルは、英語のスコアが高いことがわかりました。当たり前と言えば当たり前かもしれませんが、ここで考えるべきことは、じゃあ実際にそのLLMを大規模に学習させていく場合、英語データと日本語データをどのぐらいの割合でサンプリングしたらいいのか。これは考えないといけないことかなと思っています。

いろいろ考え方はありますが、例えば海外、中国で、いわゆる英語と中国語のバイリンガルモデルの学習において、学習初期には英語を中心に学習させつつ、学習を進めていく上で中国語ですね、第一言語を増やしていくというやり方がされている場合もあります。なので、どういうダウンストリームタスクなのかにもよりますが、どういう性能を伸ばしていくために、どういう割合でそれぞれサンプリングしていくかとは非常に重要なポイントかなと思います。

FullファインチューニングとLoRAチューニングを比較

最後に、実験結果をもう1つ。CALM2-7Bを指示データセットでFullファインチューニングした場合と、LoRAチューニングした場合を比較しています。こちらはタスクとしてStability AIの方が公開してくださっている、LLM Judgeと呼ばれるものを使っています。

例えばMath、Coding、Reasoningのような、それぞれのカテゴリについて指示に対する応答結果をGPT-4で評価するものになっています。なのでここでは8タスクですね、8タスクのそれぞれの指示の応答結果の平均のスコアをGPT-4に評価してもらっています。

CALM2-7Bを指示データでLoRAチューニングをした場合、LoRAチューニングは、効率的な学習手法となっています。一方で、Fullファインチューニングは、パラメーターをすべて学習させる場合です。結果を比較すると、LoRAチューニングの場合はスコアが3.49、Fullファインチューニングの場合はスコアが4.95ということで、実はLoRAチューニングとFullファインチューニングでも、けっこう大きな差が出る場合があります。

ちょっと注意が必要なのは、LoRAチューニングは社内でもけっこう検証を行っているのですが、LoRAチューニングはけっこうデータの質、データの量、それからハイパーパラメーターの選択の仕方によって、かなりスコアにばらつきが出てしまうので、さらに深掘りする必要があります。

データの種類や性質によっては、Fullファインチューニングのほうが性能が出る場合もあるので、じゃあどうすればいいのかという話なのですが、計算リソースが限られている場合は、LoRAチューニングを選ぶ。計算リソースに余裕がある場合はどちらも検証してみて、ダウンストリームタスク、実際のタスクで、どういうふうに性能が出るのかを検証すべきかなと思います。

まとめ

というわけでまとめです。サイバーエージェントにおけるLLM開発について紹介しました。性能の高いLLMの構築には、データと計算リソースがポイントということで、飛躍的に性能を伸ばすためには、例えば1,000億トークンから1兆トークンに増やしたり、計算リソースをきちんと確保して大規模に学習を行うことが大事です。

今日は時間が限られているので、すべてを話しきることができなかったのですが、今後はトランスフォーマー以外の新しいアーキテクチャや、マルチモーダル化など、まだまだLLMの発展のためにやるべきことはたくさんあるので、引き続きサイバーエージェントとしても取り組んでいきますし、こうした機会でこうした知見をどんどんと共有していければなと思っています。というわけでご清聴ありがとうございました。

(会場拍手)

Published at

Adblock test (Why?)


からの記事と詳細 ( サイバーエージェントが手がける日本語LLM開発 MLエンジニアが ... - ログミーTech )
https://ift.tt/MzreuEG

第128回 小学生にも安心して持たせられるタブレット - 日経BP

tahupedascabe.blogspot.com
小学生向けタブレット「Fire HD 10 キッズプロ」

小学生向けタブレット「Fire HD 10 キッズプロ」

(出所:アマゾンジャパン)

 文部科学省の「GIGAスクール構想」が開始されたのは2020年、小中学校の生徒1人につき1台のタブレットが配布されました。それに伴い、家庭でのタブレット所有率も大幅に増加しています。NTTドコモ モバイル社会研究所の調査によると、2020年の家庭でのタブレット所有率は小学校低学年で27%だったのに対し、2021年では54%に達しています。そのほかの学年でも同様に、5割近くにまで到達しています。

※NTT ドコモ モバイル社会研究所「小中学生のタブレット・パソコン利用率約9割 わずか1年で約3倍に」(https://www.moba-ken.jp/project/children/kodomo20220511.html

 文部科学省が推進するGIGAスクール構想では、Windows、ChromeOS、iPadOSの3種類のOSが推奨されています。しかし、家庭で子どもが使うタブレットとしては、Fire OSを搭載したアマゾンの「Fire HD タブレット」という選択肢もあります。

 2023年9月、新モデル「Fire HD10」に子ども用カバーと子ども向け定額サービス「Amazon Kids+」が付いた「Fire HD 10 キッズモデル」と「Fire HD 10 キッズプロ」が発表されました。これまで、未就学児向けのキッズモデルは販売されていましたが、今回はそれより上の年齢である小学生に向けたキッズプロの国内販売が始まったのです。

 キッズモデルにはクッション性の高い分厚いカバーが付属しますが、キッズプロは薄くて軽いカバーです。タブレット自体は大人も利用できるFire HD 10で、10.1型のディスプレイ、最大動作周波数2.05GHzのオクタコアプロセッサーを搭載、別売のスタイラスペンで描画もできます。大人と子どものプロフィールをそれぞれ作成して、プロフィールを切り替えながらの利用も可能です。子どものプロフィールに年齢を設定し、ふさわしいコンテンツが表示されるようにできます。

楽しみながら学びたい

 サブスクリプションに加入すれば、Amazon Kids+で提供される絵本や新聞、ビデオ、学習アプリも使えます。キッズプロのリリースに伴い、「朝日小学生新聞」のアプリや知育アプリ「ワオっち!」シリーズなどのコンテンツが追加されました。

 ペアレンタルコントロール機能では、利用時間の管理や毎日の学習目標を設定でき、Webブラウザーに関してもフィルタリングが可能です。

 キッズプロを販売する背景としてアマゾンジャパンは、「約70%の保護者がエデュテインメント(楽しみながら学ぶ)を取り入れたい」と回答し、「タブレットを使ってする学習」を楽しいと答えた子どもが62.2%にも上ったことを挙げています。米国ではエンターテインメント性に特化していますが、日本では子どもの自発的な学びや遊びを中心にサポートしているそうです。

 アマゾンのタブレット全般に言えることですが、同製品が採用しているFire OSではグーグルの「Playストア」のアプリが使えないため、普段使っているアプリがある場合には不便に感じるかもしれません。しかし、手ごろな価格で家族用タブレットが入手でき、アマゾンの豊富なコンテンツを子どもに見せられるのは同製品ならではのメリットと言えます。私は、学習アプリを一定時間使うとエンタメアプリが利用できるようになる設定が、アマゾンタブレットならではの良さの一つだと考えています。

 タブレットを長時間利用しても、良質な本や知育アプリなどを使った学習であれば、歓迎する保護者は少なくないでしょう。子どもに安心して手渡せるタブレットが、今後も増えてほしいと思います。

出典:日経パソコン、2023年11月27日号、同名コラムより
記事は執筆時の情報に基づいており、現在では異なる場合があります。

Adblock test (Why?)


からの記事と詳細 ( 第128回 小学生にも安心して持たせられるタブレット - 日経BP )
https://ift.tt/KRuOnEV

不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE ... - Trend Micro

tahupedascabe.blogspot.com 不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE-2023-46604(Apache ActiveMQ)」|トレンドマイクロ

sXpIBdPeKzI9PC2p0SWMpUSM2NSxWzPyXTMLlbXmYa0R20xk

Adblock test (Why?)


からの記事と詳細 ( 不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE ... - Trend Micro )
https://ift.tt/2cf8axU

Tuesday, November 28, 2023

不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE ... - Trend Micro

tahupedascabe.blogspot.com 不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE-2023-46604(Apache ActiveMQ)」|トレンドマイクロ

sXpIBdPeKzI9PC2p0SWMpUSM2NSxWzPyXTMLlbXmYa0R20xk

Adblock test (Why?)


からの記事と詳細 ( 不正な暗号資産マイナーやルートキットの感染を招く脆弱性「CVE ... - Trend Micro )
https://ift.tt/2cf8axU