私立ずんだもん女学園放送部 podcast 20250314
内容紹介
Google の Gemma 3 を解説して試してみる、Introducing the New PyTorch Landscape: Your Guide to the PyTorch Ecosystem、プロンプト泥棒がやってくる! 〜生成AI時代のセキュリティ対策〜、水木しげるロードで「女性の観光客をねらってつきまとう不審者」がいるらしい→Xでの報告例多数を受け、境港観光協会が対策に乗り出す流れに
出演者
関連リンク
GoogleのオープンモデルGemmaシリーズ最新版、Gemma 3が発表されました。主な特徴は、画像入力に対応したマルチモーダルモデルへの進化、長文対応(128kトークン)、多言語対応(140以上)、数学・推論能力の向上です。パラメータ数は1B/4B/12B/27Bの4種類。安全性分類モデルShield Gemma 2も公開。Hugging FaceとOllamaで動作確認ができます。
引用元: https://zenn.dev/schroneko/articles/try-google-gemma-3
PyTorch Landscapeは、PyTorchのエコシステムを可視化し、関連ツールを容易に発見できるように設計されたものです。Modeling、Training、Optimizationsの3つのカテゴリでプロジェクトを整理し、PyTorchを補完する厳選されたツールを提供します。Exploreページでは、ロゴ、説明、GitHubへのリンク付きでツールを検索できます。Guideページでは、各プロジェクトの詳細な情報(メトリクス、トレンド)を確認できます。Statsページでは、リポジトリのアクティビティ、プログラミング言語、投資データなど、AI開発のトレンドを把握できます。
引用元: https://pytorch.org/blog/pytorch-landscape/
生成AI利用拡大に伴い、AIへの不正な指示(プロンプトインジェクション)による情報漏洩リスクが高まっています。この記事では、攻撃手法と対策を解説します。
プロンプトインジェクションとは: AIに意図しない動作をさせ、機密情報漏洩やデータ改ざんを招く攻撃です。
対策:
- 防御プロンプト: AIに情報漏洩禁止を指示。
- 追加モデル:
- 入力フィルタで悪意ある指示を検知・遮断。
- 出力フィルタで機密情報を含む回答を遮断。
- 構造化クエリ: LLMにシステム指示とユーザ指示の優先順位を理解させる。
現実的な対策:
- AIへの権限を最小限に。
- 重要な判断は人間のチェックを。
- 機密データはAIから分離。
結論: 現時点では完全な防御は困難。情報漏洩を前提としたシステム設計が重要です。AIに渡す情報は常に漏洩の可能性があると考え、セキュリティ対策を講じましょう。
引用元: https://zenn.dev/codeciao/articles/prompt-injection-security
タイトル: 水木しげるロードで「女性の観光客をねらってつきまとう不審者」がいるらしい→Xでの報告例多数を受け、境港観光協会が対策に乗り出す流れに
要約: 水木しげるロードで、女性観光客へのつきまとい行為が報告されています。観光協会は事態を重く見て、警察と連携し対策を開始。注意喚起の掲示や、店舗への情報提供を依頼しています。不審な人物を見かけた場合は、市役所や観光協会へ連絡するよう呼びかけています。
引用元: https://togetter.com/li/2524629
VOICEVOX:ずんだもん