• ナレコムAI Agent Studio
  • Azure OpenAI Service
  • Azure Databricks
  • イベント
  • 運営会社
  • 採用情報
  • お問い合わせ

ナレコムAzureレシピ | AIに強い情報サイト

  • ナレコムAI Agent Studio
  • Azure OpenAI Service
  • Azure Databricks
  • イベント
  • 運営会社
  • 採用情報
  • お問い合わせ

AIエージェントの法人向けSaaSソリューション

ナレコムAI Agent Studio

ノーコードでエージェント開発ができる直感的UIと、生成AIを活用した多様な業務エージェントを構築。

詳細を見る

生成AIチャットボットの法人向けSaaSソリューション

ナレコムAI Chatbot

スモールスタートが可能な料金体系を採用しており、
生成AIを試したい部門での導入から本格的な全社展開まで、幅広くご利用いただけます。

詳細を見る

Azure OpenAI Service ・ChatGPT を法人向けにご支援するDX推進サービス

アクセラレーターパック
for Azure OpenAI Service

詳しい情報を見る

Azure Databricks を活用してデータの抽出・変換・格納、可視化 等のデータマネジメント基盤の導入をご支援します

データ分析基盤導入支援

詳しい情報を見る

生成AIや自動化システムを利用し、
効率的かつ高品質なクラウド利用をサポートします

クラウド監視・保守サービス powered by ナレコムAI

詳細を見る

Azureを通常よりも安く使える?

Azure 請求代行 サービス

詳しい情報を見る

Azure OpenAI Service

Azure OpenAI Servcie は、OpenAI の最先端AIモデルをMicrosoft Azure 上でセキュアに利用できるサービスです。


Azure Databricks

Azure Databricks は、エンタープライズグレードのデータソリューションを大規模に構築、デプロイ、共有、保守するための統合プラットフォームです。
  • “業務利用の境界線”設計:何をLLMに渡してよいか —情シスと現場が迷わないための“線引き”の作り方—

    2025年12月9日

    ■ はじめに:AI活用の最大の悩みは「どこまで入力していいか」 生成AIが社内に広がるほど、次のような質問が急増します。 「この資料、AIに投げていいの?」 「固有名詞だけ伏せれば安全?」 「データの“境界線”って誰が決 […]

  • AI事業者ガイドラインを“社内ルール”へ落とし込む実務ステップ

    2025年12月8日

    ■ はじめに ここ数カ月、各社で共通して聞こえてくる声があります。 「結局、何を決めれば“安全にAIを使っている”と言えるのか?」 生成AIの導入が広がる一方、判断の軸が社内に存在しないことで、情シス側もビジネス側も、ど […]

  • OWASP Top 10 for LLM Apps 2025(要点と実装への落とし方)

    2025年12月7日

    🧩 この記事でわかること 2025年版 OWASP Top 10 for LLM Apps の“本質” が掴める プロンプトインジェクションや情報漏洩など、LLM固有リスクの全体像が理解できる 具体的に「どう実装すればい […]

  • LLMサプライチェーンリスク:モデル / SDK / プラグイン / 外部API

    2025年12月6日

    🧩 この記事でわかること LLMは モデル単体ではなく“巨大な依存関係の塊” で動いている そのどれか一つが侵害されると システム全体が攻撃にさらされる モデル改ざん、偽ライブラリ、悪意プラグイン、外部API悪用…実際に […]

  • ハルシネーションは“セキュリティ事故”になるのか?

    2025年12月5日

    🧩 この記事でわかること ハルシネーションは単なる“精度の問題”ではなく、ビジネスリスク & セキュリティ事故の起点 攻撃者はハルシネーションを“誘発”して悪用できる 実際に 偽ライブラリ誘導 / 誤案内による法 […]

  • RAGで起きるデータ汚染・モデルポイズニングの現実

    2025年12月4日

    🧩 この記事でわかること RAGは“便利な検索+生成”だが、参照データ=攻撃面になる わずか1枚の悪意ドキュメントで 回答の90%を歪められる攻撃(研究) が存在する 訓練データを少数改ざんするだけで、大規模モデルでも  […]

  • プロンプトインジェクション最新パターンと効く防御レイヤ

    2025年12月3日

    🧩 この記事でわかること プロンプトインジェクションは MITRE ATLASでも最重要脅威 として位置づけられた 「入力からの乗っ取り」だけでなく “外部データ・画像・RAG・自動化エージェント” から侵入する 対策は […]

  • 生成AI セキュリティで実際に起きた新しい脅威事例まとめ【2025版】

    2025年12月2日

    🔖 この記事でわかること(最初に3行) 生成AIは「人が読む部分以外」も忠実に読むため、人間は気づかない攻撃や誤作動が多発している 航空会社の“誤案内→損害賠償”、Gmail画像の隠し命令、レビュー操作、RAG汚染など、 […]

  • 生成AI導入で“新しい攻撃面”が急拡大──DX担当が最初に押さえるべき5つのリスク

    2025年12月1日

    この記事で伝えたいこと 生成AIを入れると、「従来のセキュリティ設計では想定していなかった攻撃面」 が一気に増えます。 特に プロンプト・データ・モデル・サプライチェーン・運用 の5つは、DX担当が最初に全体像を押さえて […]

  • 生成AIの「プロンプトインジェクション」って何?仕組みと対策をやさしく解説!

    2025年7月18日

    最近、ChatGPTなどの生成AIがどんどん身近になってきましたよね。業務で活用したり、趣味で使ったりと、便利さを実感している方も多いはず。でも実は、AIが「思わぬ動きをしてしまう」リスクがあるのをご存知でしょうか? こ […]

前のページ
1 2 3 4 5 … 75
次のページ

タグ

3D 3次元 Active Directory Advent Calendar 2017 AugmentedReality Azure Azure Backup Azure Cognitive Services Azure DNS Azure Event Hubs Azure Functions Azure Machine Learning azure storage Azure Stream Analytics Cognitive Services Computer Vision API databricks Face API HoloLens Microsoft Microsoft Build 2023 Microsoft HoloLens MixedReality MixedRealityImmersiveHeadset MixedRealityToolkit MixedRealityToolkit-Unity MRDesignLabs MRDL MRToolkit Power BI Unity UWP Virtual Machine VirtualReality WEBSITE WindowsMR データベース 仮想ネットワーク 仮想マシン 仮想現実 拡張現実 拡張現実感 空間音響 複合現実感 WinMR

最新の投稿

  • Microsoft Foundry(Azure AI Foundry)でAIのセキュリティを評価する
  • 2026を見据えた生成AIセキュリティの論点(規制/技術/運用)
  • Databricks Apps × Claude Code × ユーザー代理認証 × Model Registry × Red Teaming で「ガバナンス付き生成AI運用」を最短で形にする
  • PoCから本番へ:セキュリティ面で“越えるべき壁”チェックリスト
  • 生成AI FinOps:コスト異常も“セキュリティイベント”として扱う発想

カテゴリー


presented by

© 2022 ナレコムAzureレシピ | AIに強い情報サイト All rights reserved