Apache Cassandra 3.11.1を実行していて、失敗状態の6つのテーブルサイズがあります。
Max partition is larger than 100MB.
これらの6つのテーブルの場合、パーティションサイズは平均で200MBから5GB以上です。これらの6つのテーブルは、3つのキースペースに分割されており、 Akka Persistence eventsByTag(つまり、eventsByTag1、eventsByTag2)に固有です。
これらのテーブルのデータの多くは使用されていませんが、まだ利用可能である必要があります。
私はデータモデルの変更を検討していますが、同時に、パーティションサイズが大きい場合の影響をよりよく理解しようとしています。
メモリ不足またはヒット以外 Cassandraの制限 ほとんどのデータにアクセスしない場合、パーティションサイズが大きいことによるその他の悪影響は何ですか?
関連する可能性のある特定のケース(確認されていません)は、現在Cassandraマテリアライズドビューとelasticsearchを実行しています。時折、elasticsearchをCassandraは失敗し、これが関連しているかどうかはまだわかりません。
この場合に受け取るエラーメッセージは次のとおりです。
Caused by: com.datastax.driver.core.exceptions.ReadTimeoutException:
Cassandra timeout during read query at consistency LOCAL_QUORUM (2
responses were required but only 1 replica responded)
このバージョンのCassandraでは、以前よりも改善されているはずですが、多くのSSTableへのアクセス、パーティションキーのみでの選択などに起因するパフォーマンスの問題が発生する可能性があります。
このプレゼンテーション 「ワイドパーティション」をサポートするために行われた作業の概要を示しますが、データを再モデル化するための推奨される方法です。