Databricks Japan🧱 | DATA + AI Company

2.7K posts

Databricks Japan🧱 | DATA + AI Company banner
Databricks Japan🧱 | DATA + AI Company

Databricks Japan🧱 | DATA + AI Company

@DatabricksJP

データブリックス ジャパン 🇯🇵 の公式アカウント データ活用の最新ニュースを発信中🚀 Lakehouse Platformで『DATA+AIの民主化』を実現します! 🧱#JEDAI→https://t.co/fvOID1nocu 📕Blog→https://t.co/HwENydHKzl 🎥Youtube→https://t.co/wLcg2qB7ny

Katılım Aralık 2019
26 Takip Edilen2.2K Takipçiler
Sabitlenmiş Tweet
Databricks Japan🧱 | DATA + AI Company
最新の資金調達で40億ドル超を調達できたことを、とても嬉しく思います!今回の資金は主に、以下への投資に充てる予定です。 🔗bit.ly/4oU7fId 1️⃣ Lakebase Postgres:エージェント向けのサーバーレス・データベース 2️⃣ Agent Bricks:エンタープライズデータ上で推論できる高品質なエージェント 3️⃣ Databricks Apps:Lakebase と Agent Bricks の上に構築される Data Intelligence Apps また、あわせて以下も公開しました: 🚀 売上ランレートが48億ドル を突破、前年比55%超の成長 🚀 データウェアハウジング製品の売上ランレートが10億ドル を突破 🚀 AI製品の売上ランレートが10億ドル を突破 🚀 過去12か月で引き続き キャッシュフローは黒字 今回のラウンドを主導してくださった Insight Partners、Fidelity Investments、J.P. Morgan の皆さまに心より感謝します。
Ali Ghodsi@alighodsi

Excited to raise $4B+ in our latest fundraise! We shared that we will primarily be using the capital to invest in: 1️⃣ Lakebase Postgres - serverless database for Agents 2️⃣ Agent Bricks - high quality agents that can reason on enterprise data 3️⃣ Databricks Apps - Data Intelligence Apps built on Lakebase and Agent Bricks As part of this we also disclosed: 🚀 Crossed $4.8B revenue run-rate, over 55% YoY growth 🚀 Crossed $1B of revenue run-rate for our Data Warehousing product 🚀 Crossed $1B of revenue run-rate for our AI products 🚀 Continued to be cash flow positive in the last 12 months Big thanks to Insight Partners, Fidelity Investments, and J.P. Morgan who led the round. databricks.com/company/newsro…

日本語
0
2
17
7.7K
Databricks Japan🧱 | DATA + AI Company
🚀 DatabricksのオープンソースJDBCドライバーが大幅進化! ▶︎databricks.com/jp/blog/faster… 📌 パフォーマンス向上 ・大規模クエリの結果取得が最大30%高速化されました ・BIツールやアプリケーションワークロードの体感速度が大幅に改善されています 📌 新アーキテクチャ&機能 ・JDK16以降でArrowサポートが利用可能になりました ・非同期実行やストリームベースのボリューム取り込みが追加されています ・ストアドプロシージャ、複数ステートメントトランザクション、Unity Catalogメトリックビュー、地理空間データ型など最新SQL機能が拡充されました 📌 オープンソースの強み ・Databricks自社管理により迅速なバグ修正と新機能の早期提供が実現されています ・プラットフォームとの緊密な連携が可能です ・コミュニティからの貢献も受け付けており、将来性のある接続レイヤーとして進化し続けます 従来の2.xドライバーからの移行で、すぐにパフォーマンス改善を体感できます。データ基盤の接続層を見直すなら今がチャンスです! #Databricks #JDBC #オープンソース
日本語
0
1
7
718
Databricks Japan🧱 | DATA + AI Company
📊 週3日出社でオフィスはどう変わった? センサーデータ7,300万件をAIが読み解きます ネットワンシステムズさまが、フルリモートから週3日出社へ移行した前後のオフィス変化を、Databricks Genie Spacesで分析しました。 🔍 主な発見: ・出社人数が約92%増加し、その後も高水準を維持しています ・初週は朝10時にピークでしたが、徐々に午後14〜15時シフトへ変化しています ・昼休みの騒音が+3.7dB上昇し、ランチスペースの混雑が顕著になっています ・一方で19時以降の騒音は3〜4dB低下し、「定時で帰る」行動が定着しつつあります 💡 AIが設備改善まで提案: ・会議室の温度30℃超え → 空調見直しを推奨 ・CO2が1,000ppm超過の部屋 → 換気量増加や人数制限を提案 ・特定会議室への利用集中も可視化されています ✨ 注目ポイント: 簡単なプロンプトを入力するだけで、漫然と蓄積されたセンサーデータから深い洞察を引き出せるのがGenie Spaces Agentモードの強みです。分析はわずか約1分で完了しています。 データドリブンな働き方改革の好事例ですね! #Databricks #働き方改革 #データ分析 netone.co.jp/media/detail/2…
Hiroki Aramaki@hirokiaramaki

週3出社の変化をDatabricksのGenie Spacesで分析しました。netone.co.jp/media/detail/2…

日本語
0
1
14
1.8K
Databricks Japan🧱 | DATA + AI Company retweetledi
akuwano
akuwano@kuwa_tw·
こういう感じでDatabricks使うのはどうですか? 例えば社内情報とユーザデータを知っているエージェントを作りたい時皆様どうしてますでしょうか? そうですね、Agent Bricksですね?☺️ Agent BricksはDatabricksのAIサービス群の名前ですが、その中でもSupervisor Agent、Knowledge Assistant、そしていつもお話しますがGenie Space この3つを使って20分でエージェントができます! Genie Spaceはご存知「テキストからSQLを生成するサービス」ですが、コレを作るのにまず作るだけなら4分でできます! 次にAgent Bricks、Knowledge Assistant、これは「全自動でRAGを作り、それをベースにしたエージェントを作れるサービス」です。Confluenceなどから取ってきたデータの場所を与えて、プロンプト作る作るだけなので作業時間は8分! 次にAgent Bricks、Supervisor Agent、これは「これは各エージェントを割り振ってマルチエージェントを作れるサービス」です。これはGenie Spaceや、Knowledge Assistantを登録してプロンプト作るだけなのでこれも8分! もちろんここから色々調整など必要ですが、実用できるエージェントが20分でできました!(時間には個人差があります) って感じです!Agent Bricksを活用頂くことでメチャクチャ楽に実用できるエージェントが作れるので是非試してみてくださいませ!
akuwano tweet media
akuwano@kuwa_tw

The Databricks AI Research Team が、みんなご存知Genie の技術的な現在地を解説した記事がでてました! Genieの使い方じゃなくて、作り方(設計方法)がありました! 一応、Genie は、Databricks のデータエージェントで、テーブルやダッシュボードから非構造化ドキュメントまで横断して自然言語で答えてくれるやつです。 汎用コーディングエージェントと違う課題がありました。まず、Scale of Data Discovery、これは数百万規模の構造化・非構造化アセットがあり、従来の検索手法では追いつかないこと。そしてSource of Truth の特定で、メタデータや社内ドキュメント・内部メッセージは古かったり矛盾していたりするので、どれが権威ある情報源かを判定する必要がありました。最後がLack of Verifiable Testsで、コーディングのようなテストで自動検証できず、そもそも答えが存在するかも分からないの 3つがありました。 技術的進化は 3つの軸で、Specialized Knowledge Searchは、既存資産からセマンティックな企業文脈を引き出して複数の検索インデックスを並列で叩く専門検索のための機構によってtable discovery ベンチマークで最大 40% 改善しています。複数の実行を別々にサンプリングして集約する手法であるParallel ThinkingでGPT-5.4とOpus-4.6を両方使い精度向上を実現。Multi-LLMは、Opus / GPT / Gemini などのSOTAモデルや OSS、カスタムモデルなどを、計画・検索・コード生成・判定などサブエージェントごとに割り当てる構成もとっており、プロンプトもGEPAという最適化手法でチューニングしています。 社内のベンチマークでは、leading coding agent の32%から90%超まで精度を引き上げ、同時にコストとレイテンシも削減できているということです。よくある例として、複数ダッシュボード間で食い違ってしまう収益スパイクを「並列発見 → 調査→ 自己修正・整合 → 検証」などの多数のフェーズで解く流れが示され、エージェントが単発の質問に答えるシンプルな物から複数視点で自己検証する高度なものへと進みつつあるのが見えてきます! Genieを使いたい方はもちろん、データエージェントを作りたい!という方の参考になればと思います!

日本語
0
3
34
5.8K
Databricks Japan🧱 | DATA + AI Company
🚀 Unity Catalogのデータガバナンスが大幅進化! 3つの新機能が一般提供開始されました ▶︎databricks.com/jp/blog/abac-r… 🔐 ABACポリシー タグの属性に基づいて行フィルタリング・列マスキングをデータエステート全体に自動適用できます。テーブルごとの手動設定が不要になり、ガバナンスの一貫性が飛躍的に向上します 🏷️ ガバナンスタグ アカウントレベルで分類語彙を標準化し、組織全体で統一されたタグ管理を実現します。担当者依存のギャップを解消できます 🤖 自動データ分類 GDPR・HIPAA・PCIなど主要コンプライアンス標準に対応した分類子がPII・PHIなどの機密データを継続的にスキャン&タグ付けします。カスタム分類子もベータ提供中です ✨ 3機能が連携することで 「検出 → タグ付け → 保護」の一連のフローが自動化され、スケーラブルな統合ガバナンスフレームワークが実現します コンプライアンス対応の省力化を目指す方は要チェックです! #Databricks #UnityCatalog #データガバナンス
日本語
0
1
9
608
Databricks Japan🧱 | DATA + AI Company retweetledi
Databricks
Databricks@databricks·
Lakeflow Designer is a visual, no-code, AI-native way to prepare and analyze data directly on Databricks. Data stays in place, governed by Unity Catalog from the start, with lineage and permissions intact. Every transformation generates production-ready Python code under the hood. Breaking transformations into visual operators with previews at every step makes AI-generated data work easier to understand, review, and trust. Get started: databricks.com/blog/announcin…
English
3
12
51
5K
Databricks Japan🧱 | DATA + AI Company
NYUラングーン・ヘルスが実践する「データ品質=AI戦略」とは? CDIO Nader Mherabi氏の知見をまとめました👇 ▶︎databricks.com/jp/blog/data-q… 📌 大前提:AIの前にデータを整えよ ・AIモデル構築の前に、電子カルテやERPなどソースレベルでデータを正確に整備することが高品質なAI実現の絶対条件です ・「良いAIは良いデータからしか生まれない」という原則を徹底しています 📌 統合データ基盤がもたらした成果 ・部門間で指標の矛盾がなくなり、組織全体で一貫した意思決定が可能になりました ・救急外来ではリアルタイムの臨床意思決定支援モデルが稼働し、誤診防止に貢献しています ・ケア提供・運用・研究の各領域で具体的な価値が生まれています 📌 長期戦略の核心:技術より「仕組み」への投資 ・AIツールは急速に変化するため、特定技術に固執しないことが重要です ・Unity Catalogを活用したデータガバナンスや組織全体のデータリテラシー向上に継続的に投資しています ・変わらない本質は「価値創造にフォーカスし続ける」ことです 💡 技術は変わる。でもデータ品質への投資は裏切らない。AI時代の戦略の本質がここにあります。 #Databricks #AI戦略 #データ品質
日本語
0
0
3
411
Databricks Japan🧱 | DATA + AI Company
SuperhumanとDatabricksが共同で実現した推論プラットフォームをご紹介します💡 ▶︎databricks.com/jp/blog/how-su… 📌 何を実現したのか ・4,000万人以上のユーザーへ、数十言語対応のスペル・文法校正をサブ秒レイテンシで提供しています ・毎秒20万クエリ超という超高負荷でも安定稼働を達成しました ⚡ どう最適化したのか ・DIY vLLMスタックからDatabricks FMAPI Provisioned Throughputへ移行しました ・FP8量子化や非同期スケジューリングなどの最適化により、H100 GPUあたりのスループットを750→1,200 QPSへ約60%向上させています ・品質低下はゼロです 🏗️ インフラの工夫が凄い ・独自の2択選択アルゴリズムによるカスタム負荷分散を実装しています ・非対称オートスケーリングで250台超のGPUへ安定スケーリングを実現しました ・コンテナ起動時間を数分→数秒へ大幅短縮し、高可用性を確保しています 共同エンジニアリングで限界を突破した好事例です🔥 #Databricks #LLM推論 #MLOps
日本語
0
0
5
543
Databricks Japan🧱 | DATA + AI Company
📄→🗄️ スキャン文書をAIで検索可能なDBに変換し、スーダンの地下水発見を支援! ▶︎databricks.com/jp/blog/unlock… 🤝 背景 ・Databricks for Good と非営利団体 MapAid が連携しました ・スーダンでは水資源の探索に必要な水理地質学的文書が紙のまま眠っています 🤖 AIパイプラインの仕組み ・約700件のスキャン画像からマルチモーダルAIでテキストや井戸データを直接抽出します ・AI Functions・Unity Catalog・Delta Lake を活用し、分類からカタログ化まで自動処理します ⚡ 驚きの処理性能 ・654件・5,570ページをわずか3時間未満で処理しました ・299件の構造化された井戸記録を生成し、分類精度は95%が高評価を獲得しています 🌍 社会へのインパクト ・抽出データは地下水予測モデル「WellMapr」に直接活用され、掘削成功率の向上に貢献します ・エチオピアやマラウイなど他地域への展開も見据え、スケールアップの準備が整っています 非構造化データの山を価値ある資産に変えるAIの力が、命を支える水へのアクセスを変えようとしています💧 #Databricks #AIforGood #地下水
日本語
0
2
7
687
Databricks Japan🧱 | DATA + AI Company
新機能が来ました🎉🎉 【LakebaseからLakehouseへのネイティブ同期】 ▶︎databricks.com/jp/blog/announ… 📌 何が変わるのか? Lakebase(Postgres)のデータがUnity Catalog管理テーブルへ自動でレプリケートされます。 外部パイプラインも追加コンピューティングも不要で、 Postgresのパフォーマンス影響はゼロです。 📌 従来の課題を根本解消 これまでのCDCスタックではエージェント駆動型ワークロードに対応しきれず、スキーマのドリフトや障害点の増加が大きな悩みでした。 LakebaseとLakehouseが同じオープンストレージを共有することで、同期がDB自体のネイティブ機能となり、複雑なETLパイプラインを丸ごと排除できます。 📌 同期後すぐに活用可能 データはUnity Catalogに着弾した瞬間からSpark・Databricks SQL・MLノートブック等で即時利用できます。 ✅ ライブMLフィーチャーの生成 ✅ メダリオンアーキテクチャのブロンズレイヤー構築 ✅ コンプライアンス監査対応 まさに「つなぐ」から「最初からつながっている」への パラダイムシフトです。 #Databricks #Lakehouse #データエンジニアリング
日本語
0
0
14
874
Databricks Japan🧱 | DATA + AI Company
📢 【無料ウェビナー開催】 リテール業界におけるデータとAIの活用法とは 🗓️ 2026年5月29日(金) 13:00-14:00 💻 オンライン開催(バーチャル) ▶︎events.databricks.com/agentic-commer… 🔑 テーマは「エージェンティック・コマース」 AIエージェント時代に主権を握るリテーラーになるために、データブリックス・ジャパンが流通業向けに最新トレンドと実践事例をお届けします。 📌 こんな内容が学べます: ・2026年グローバルリテールトレンドの最前線をご紹介します ・自然言語で質問するだけでインサイトを引き出す「Customer 360 Genie」のデモをご覧いただけます ・リアルタイムCustomer 360によるコマース・マーケティングの活性化手法を解説します ・AIで顧客エンゲージメントを収益化するエンドツーエンドの業務フローをご紹介します 🎤 アジェンダ: ・前半:AI エージェント動向調査から見る小売業の現在地と先行企業のユースケースをお伝えします ・後半:小売業におけるAIの実装からスケールまでの運用実態を深掘りします 🎯 対象: 流通業の経営層・管理職・現場責任者・データ活用部門長の方々におすすめです。 デモを交えた実践的な内容で、明日から使えるヒントが満載です✨ #リテールDX #AIエージェント #Databricks
日本語
0
2
6
522
Databricks Japan🧱 | DATA + AI Company
全ユーザ待望の!!! 📢 Delta LakeとIcebergの"いいとこ取り"が実現! Databricksが「カタログコミット」の一般提供を開始しました。 ▶︎databricks.com/jp/blog/conver… 🔑 何が変わるのか? • カタログがすべてのテーブルアクセスを一元管理する「カタログ中心モデル」がDelta Lakeに導入されます • これにより、エンジンをまたいだ一貫したガバナンスと状態管理が可能になります 🛠 解決される3つの課題 • カタログとテーブル状態がズレる「スプリットブレイン」問題の解消 • マルチエンジン・マルチエージェント環境でのアクセス管理の統一 • 複数テーブルにまたがるアトミックトランザクションの実現 🌐 エコシステム対応 • Delta Spark / Delta Flink / Starburst Trino / DuckDB / StreamNativeなど幅広くサポートされています ⚙️ 利用方法 • Runtime 16.4以上で新規テーブル作成時に有効化できます • 既存テーブルへの適用はRuntime 18.0以上で対応しています レイクハウス上でDWHワークロードも実行可能になり、オープンフォーマットの世界が大きく前進します🚀 #Databricks #DeltaLake #DataEngineering
日本語
0
5
28
2.1K
Databricks Japan🧱 | DATA + AI Company
📊 小売業の値下げ、まだ"受け身"で続けますか? 週次レポートを待っている間にトレンドは変わり、在庫は膨らみ、利益を削る値下げに追い込まれる—— そんな悪循環を断ち切る方法があります。 👇databricks.com/jp/blog/retail… ━━━━━━━━━━━━━━━ 🔍 値下げ最適化とは? ・需要予測・販売率・価格弾力性を活用し、適切なSKUに「いつ・どれだけ」値下げするかを戦略的に判断する仕組みです ・"売れ残ったから下げる"ではなく、"利益を最大化するために下げる"へ転換できます ━━━━━━━━━━━━━━━ 🤖 Databricks Genieが変えること ・自然言語でデータを即座に照会でき、マーチャンダイジングリーダーがトレンド減速や在庫異常をリアルタイムで把握できます ・EC・店舗・卸売の統合データに加え、サプライヤー情報や過去の季節パターンまで一つの環境で確認できます ・実際に協同組合小売業者CoopがGenie活用のAIアシスタント「AskCap」を構築し、社内ユーザー30%のリテンション率を達成しています ━━━━━━━━━━━━━━━ 💡 早期検知がもたらす効果 ・仕入れ可能額の素早い再配分が可能になり、深い割引を回避して利益を守れます ・好調カテゴリーへ資本を集中させ、攻めのマーチャンダイジングが実現します データと行動のギャップを埋める——それが能動的な値下げ戦略の第一歩です。 #Databricks #リテールDX #AI活用
日本語
0
2
6
647
Databricks Japan🧱 | DATA + AI Company
🚀 DatabricksのMCPマーケットプレイスが登場! エージェント型AIに"外の目"を与える画期的な仕組みです。 👇databricks.com/jp/blog/mcp-ma… 📡【何ができる?】 • You.com → 市場動向・最新Webニュースをリアルタイム取得 • Moody's → 信用格付け・財務情報を即座に参照 • Cotality → 不動産・住宅ローンデータに直接アクセス 静的な社内データだけでは不可能だった自律的な意思決定が実現します。 ⚡【実用例:融資審査の自動化】 • エージェントが複数の外部データをリアルタイムで統合しながら推論します • Genieが自然言語で承認・拒否の根拠をビジネスユーザーに提示します • アナリストの手作業による調査・判断プロセスを大幅に高速化できます 🔒【ガバナンスも万全】 • Unity Catalogで全外部データアクセスを認証・管理します • Lakebase(エージェント専用サーバーレスDB)が意思決定履歴を永続保存します • マルチステップのワークフロー全体で監査証跡を自動記録し、コンプライアンスに対応します AIエージェントが"考えて動く"時代、 そのインテリジェンスの源泉がここにあります。 #Databricks #AI #MCP
日本語
0
2
9
580
Databricks Japan🧱 | DATA + AI Company
🧠 LLMジャッジの精度を劇的に改善する方法が登場しました DatabricksのAIパートナー「Genie Code」が生成するMLノートブックの品質評価における課題と解決策をご紹介します👇 databricks.com/jp/blog/using-… 【課題】 ・9つの評価軸でLLMジャッジを構築したものの、人間の専門家とのスコア乖離が最大MAE 0.68と大きく、信頼性に課題がありました 【解決策:MemAlign】 ・MLflowのオープンソースフレームワーク「MemAlign」を活用しました ・わずか約50件のラベル付きデータから2種類のメモリを生成します  ✅ 意味記憶:汎用的な評価ガイドライン  ✅ エピソード記憶:具体的な事例ベースの判断基準 【成果】 ・最も乖離が大きかった3次元(モデルトレーニング・モデル使用・データ補完)でエラーを74〜89%削減しました ・両方のメモリが不可欠であることも実験で確認されています 【ポイント】 ・少量のラベルデータで高精度なLLM評価を実現できます ・AI製品のCI/CDパイプラインにおける実用的な品質保証手段として有効です ━━━━━━━━━━━━━━━ 少ないデータで人間レベルの評価精度を達成できるMemAlign、AI開発の品質管理に革新をもたらしそうですね🚀 #Databricks #MLflow #LLM
日本語
0
3
11
1.4K
Databricks Japan🧱 | DATA + AI Company retweetledi
camay
camay@Camay119·
Databricks One から Databricks Genie に名称変更されて、「何故そんなややこしいことを…」と思っていたが、想像以上に凄い進化を遂げていた
akuwano@kuwa_tw

The Databricks AI Research Team が、みんなご存知Genie の技術的な現在地を解説した記事がでてました! Genieの使い方じゃなくて、作り方(設計方法)がありました! 一応、Genie は、Databricks のデータエージェントで、テーブルやダッシュボードから非構造化ドキュメントまで横断して自然言語で答えてくれるやつです。 汎用コーディングエージェントと違う課題がありました。まず、Scale of Data Discovery、これは数百万規模の構造化・非構造化アセットがあり、従来の検索手法では追いつかないこと。そしてSource of Truth の特定で、メタデータや社内ドキュメント・内部メッセージは古かったり矛盾していたりするので、どれが権威ある情報源かを判定する必要がありました。最後がLack of Verifiable Testsで、コーディングのようなテストで自動検証できず、そもそも答えが存在するかも分からないの 3つがありました。 技術的進化は 3つの軸で、Specialized Knowledge Searchは、既存資産からセマンティックな企業文脈を引き出して複数の検索インデックスを並列で叩く専門検索のための機構によってtable discovery ベンチマークで最大 40% 改善しています。複数の実行を別々にサンプリングして集約する手法であるParallel ThinkingでGPT-5.4とOpus-4.6を両方使い精度向上を実現。Multi-LLMは、Opus / GPT / Gemini などのSOTAモデルや OSS、カスタムモデルなどを、計画・検索・コード生成・判定などサブエージェントごとに割り当てる構成もとっており、プロンプトもGEPAという最適化手法でチューニングしています。 社内のベンチマークでは、leading coding agent の32%から90%超まで精度を引き上げ、同時にコストとレイテンシも削減できているということです。よくある例として、複数ダッシュボード間で食い違ってしまう収益スパイクを「並列発見 → 調査→ 自己修正・整合 → 検証」などの多数のフェーズで解く流れが示され、エージェントが単発の質問に答えるシンプルな物から複数視点で自己検証する高度なものへと進みつつあるのが見えてきます! Genieを使いたい方はもちろん、データエージェントを作りたい!という方の参考になればと思います!

日本語
0
4
14
3.2K
Databricks Japan🧱 | DATA + AI Company
🔍 セキュリティの検出時間、なぜ縮まらない? その答えは「データアクセス」にありました。 ▶︎databricks.com/jp/blog/mean-t… 📌 課題 ・アナリストは調査に必要なデータを複数のバラバラなシステムから手動で収集しています ・この"データ探し"こそが平均検出時間(MTTD)短縮を阻む最大のボトルネックです ・SIEMやSOARだけではクロスシステムの統合問題は解決できていません ⚡ 脅威のスピードは加速中 ・CVEから悪用までの時間は2018年の「2年以上」→ 現在わずか「約1.3日」へ激減 ・人間の手動ワークフローではもはや追いつけない速度です 🚀 解決策:Lakewatch × Genie ・Databricks Lakewatchに搭載されたGenie(Anthropic Claude活用のAIエージェント)が革新をもたらします ・自然言語で質問するだけでSIEM・EDR・IAMなど複数ソースを横断調査できます ・複雑なSQLや独自クエリ言語の習得は不要です ・検出・トリアージ・調査を機械速度で自動化します ✨ インパクト ・MTTDを「200日」→「数分」へ短縮する現実的な手段として注目されています データの壁を壊すことが、検出速度を変える鍵です🔑 #Databricks #セキュリティ #MTTD
日本語
0
0
4
391
Databricks Japan🧱 | DATA + AI Company retweetledi
Tyam
Tyam@isanakamishiro2·
Databricks Free EditionでLakeflow Designerもいつの間にか使えるようになってる。どこまで無料で試せるようにすると気が済むのか(褒めてる
Tyam tweet media
日本語
0
6
47
3.9K
Databricks Japan🧱 | DATA + AI Company
🚀 Databricksのサーバーレスが実現する分散システムの革新についてご紹介します ▶︎databricks.com/jp/blog/rethin… 📌 圧倒的な信頼性 ・Spark Connectでユーザーアプリとインフラを完全分離しています ・年間25以上のメジャーアップグレードをユーザー操作なしで実施しています ・45億超のワークロードを99.998%の成功率で処理しています 📌 インテリジェントなルーティング ・Serverless Gatewayが3つのリアルタイムシグナルを評価しています  → クエリサイズ/クラスター利用率/レイテンシプロファイル ・ワークロード間の干渉を防ぎ、高い利用率と安定したパフォーマンスを両立しています 📌 驚異的な導入効果 ・CKDelta:ジョブ実行時間が4〜5時間→わずか20分に短縮されています ・Unilever:運用コスト25%削減&パイプライン速度2〜5倍向上を達成しています ・HP:クラウド費用32%以上の削減に成功しています 適応型自動スケーリングがワークロードパターンを継続的に分析し、コンピューティング容量を動的に最適化することで、これらの成果を実現しています。 サーバーレスの未来がここにあります✨ #Databricks #サーバーレス #分散システム
日本語
0
0
4
497