株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20241203

2024年12月03日

MP3ファイルをダウンロード

内容紹介

AIやテクノロジーに関する記事を紹介 The Morning After: Elon Musk wants the court to stop OpenAI becoming a for-profit、夫がGoogleのGemini APIコンペで受賞してた、長年の誤ったパスワードポリシーが推奨された原因はあの偉人の論文だった?、市役所の職員がChatGPTでシステム開発を行って、外注よりも費用を30分の1に抑えたというニュース→「自己責任でお願いします!」

出演者

ずんだもん
ずんだもん

関連リンク

イーロン・マスク氏がOpenAIとマイクロソフトを相手取り、独禁法違反で差止命令を求める訴訟を起こしました。訴訟の目的は、OpenAIの営利企業への転換を阻止することです。マスク氏は今年初めにも、OpenAIが「人類の利益のためにAIを開発する」という設立理念に違反していると主張して訴訟を起こしましたが、数ヶ月後に取り下げています。8月にはカリフォルニア州の連邦裁判所に訴訟を起こしており、今回が3度目の訴訟となります。

今回の訴状では、OpenAIとマイクロソフトが、マスク氏のxAIなどOpenAIの競合他社への投資を阻止するよう投資家に働きかけ、マイクロソフトとの関係を通じて不正に取得した競争上の機密情報や協調行為から利益を得ていると主張しています。 つまり、マスク氏はOpenAIの営利化と、競合他社への不当な妨害を問題視しているのです。 以前の訴訟とは異なり、今回は競合抑制という観点からの訴えとなっており、OpenAIとマイクロソフトの行動が競争環境に与える影響に焦点が当てられています。 日本のエンジニアとして、この訴訟は、AI開発における競争の健全性、そして企業倫理や独占禁止法の重要性を改めて認識させる事例と言えるでしょう。

引用元: https://www.engadget.com/general/the-morning-after-engadget-newsletter-121535788.html

筆者の夫が、GoogleのGemini APIを使ったコンペで受賞しました。約3000件の応募の中から9件が選ばれるという狭き門を突破したとのことです。開発されたアプリは、物体を認識して、被写体の顔にキャラクターを表示させ、会話させるという、動画で確認できるほど魅力的なものです。 デザインも秀逸で、多くの人に受け入れられる見た目になっている点が評価されています。

夫は過去にもGoogleのコンペで受賞経験があり、技術系コンペで好成績を収めることに長けているため、筆者からは「インターネット賞金稼ぎ」と呼ばれているそうです。 このアプリは近いうちにリリース予定とのことです。

なお、筆者自身も生成AIに関する書籍を出版しており、夫婦揃って生成AIに造詣が深いことがわかります。 その書籍は、AIに詳しい「からあげさん」にもネーム確認を受けており、生成AI初心者にも分かりやすい内容になっているとのことです。 書籍の購入はVALUE BOOKS(日本在住者向け)とAmazon(海外在住者向け)から可能です。

引用元: https://www.imagawa.tokyo/entry/2024/12/01/191758

この記事は、長年推奨されてきた複雑なパスワードと定期的な変更というパスワードポリシーが、実は誤っていたという内容です。 この誤ったポリシーが定着した原因として、Unix開発者ケン・トンプソンと暗号学者ロバート・モリスによる1979年の論文「Password Security: A Case History」が大きく影響したと指摘しています。

この論文は、パスワードの安全性を高めるために複数の文字種(小文字、大文字、数字、記号)を含む複雑なパスワードを推奨しました。しかし、実際には「p@ssword」のような推測しやすいパターンも多く、セキュリティ向上には繋がっていないことが現在では明らかになっています。

さらに、論文ではパスワードをハッシュ化して保存する方法が提案されました。この方法は、研究者によるパスワードの実態調査を困難にし、パスワードに関する知見の蓄積を停滞させる結果を招きました。

つまり、一見有効に思えたこの論文の推奨事項が、長年に渡りパスワードセキュリティの向上を阻害してきたというわけです。 NIST SP 800-63ガイドラインの改訂によって、「パスワードは複雑さより長さ」という考え方が主流になりつつありますが、この歴史的背景を知ることで、セキュリティポリシー策定の難しさや、一見正しいと思える施策の長期的な影響を考慮する重要性を改めて認識できます。 この記事は、過去の偉大な科学者たちの誤りから、セキュリティ対策を考える上で重要な教訓を与えてくれています。

引用元: https://yamdas.hatenablog.com/entry/20241202/bad-password-policies

ある市役所の職員がChatGPTを用いてシステム開発を行い、外注費用の30分の1のコストで開発を完了したというニュースが話題になっています。しかし、この事例を受けて、多くの市長や社長が同様の取り組みを検討していることに対し、警告を発する声が上がっています。

この事例は、素人によるDIYのようなものであり、システム開発における専門知識や経験が不足している場合、大きなリスクを伴うことを示唆しています。具体的には、以下のような問題点が指摘されています。

  • 継続的な保守・メンテナンス、バグ修正の負担: システム開発は完成がゴールではなく、運用・保守・メンテナンスが長期的に必要です。ChatGPTを用いた開発では、これらの作業が想定以上に困難で、費用や時間がかかってしまう可能性があります。
  • セキュリティリスク: ChatGPTで作成されたシステムは、セキュリティ上の脆弱性を抱えている可能性があり、情報漏洩などのリスクがあります。
  • 仕様の正確性: ChatGPTによる出力は、必ずしも正確とは限らず、誤った情報に基づいたシステムが開発される可能性があります。
  • 専門家の判断の欠如: システム開発には、専門家の知識と経験に基づいた判断が不可欠です。ChatGPTだけでは、適切な判断ができない可能性があります。

多くのエンジニアは、ChatGPTなどの生成AIは開発を支援するツールとして有用である一方で、それだけでシステム開発を行うことは危険だと指摘しています。 システムの品質、セキュリティ、保守性などを十分に考慮した上で、責任ある開発体制を構築することが重要です。 コスト削減を優先するあまり、リスクを軽視して安易にChatGPTを利用することは、かえって大きな損失につながる可能性があります。 この事例は、ChatGPTの利用には専門的な知識と理解、そして自己責任が不可欠であることを改めて示しています。

引用元: https://togetter.com/li/2474058

(株式会社ずんだもんは架空の登場組織です)