私はCSV
ファイルをR data.frameに読み込みました。行のいくつかは、列の1つに同じ要素があります。その列で重複している行を削除します。例えば:
platform_external_dbus 202 16 google 1
platform_external_dbus 202 16 space-ghost.verbum 1
platform_external_dbus 202 16 localhost 1
platform_external_dbus 202 16 users.sourceforge 8
platform_external_dbus 202 16 hughsie 1
他の行は最初の列に同じデータを持っているので、私はこれらの行のうちの1つだけを望みます。
データフレームを必要な列に分離してから、独自の関数を使用するだけです。D
# in the above example, you only need the first three columns
deduped.data <- unique( yourdata[ , 1:3 ] )
# the fourth column no longer 'distinguishes' them,
# so they're duplicates and thrown out.
重複行を削除するための一般的な回答を探すためにここに来た人は、!duplicated()
を使用してください。
a <- c(rep("A", 3), rep("B", 3), rep("C",2))
b <- c(1,1,2,4,1,1,2,2)
df <-data.frame(a,b)
duplicated(df)
[1] FALSE TRUE FALSE FALSE FALSE TRUE FALSE TRUE
> df[duplicated(df), ]
a b
2 A 1
6 B 1
8 C 2
> df[!duplicated(df), ]
a b
1 A 1
3 A 2
4 B 4
5 B 1
7 C 2
からの回答: Rデータフレームから重複した行を削除する
dplyr パッケージの関数distinct()
は、任意の重複排除を実行し、(この質問のように)重複する変数を指定できるようにするか、すべての変数を考慮します。
データ:
dat <- data.frame(a = rep(c(1,2),4), b = rep(LETTERS[1:4],2))
指定した列が重複している行を削除します。
library(dplyr)
dat %>% distinct(a, .keep_all = TRUE)
a b
1 1 A
2 2 B
他の行と完全に重複している行を削除します。
dat %>% distinct
a b
1 1 A
2 2 B
3 1 C
4 2 D
data.table
パッケージには、それ自身のunique
メソッドとduplicated
メソッドもあり、いくつかの追加機能があります。
unique.data.table
メソッドとduplicated.data.table
メソッドの両方に追加のby
引数があり、それぞれ列名またはそれらの位置のcharacter
またはinteger
ベクトルを渡すことができます。
library(data.table)
DT <- data.table(id = c(1,1,1,2,2,2),
val = c(10,20,30,10,20,30))
unique(DT, by = "id")
# id val
# 1: 1 10
# 2: 2 10
duplicated(DT, by = "id")
# [1] FALSE TRUE TRUE FALSE TRUE TRUE
これらの方法のもう1つの重要な機能は、大規模データセットのパフォーマンスが大幅に向上することです。
library(microbenchmark)
library(data.table)
set.seed(123)
DF <- as.data.frame(matrix(sample(1e8, 1e5, replace = TRUE), ncol = 10))
DT <- copy(DF)
setDT(DT)
microbenchmark(unique(DF), unique(DT))
# Unit: microseconds
# expr min lq mean median uq max neval cld
# unique(DF) 44708.230 48981.8445 53062.536 51573.276 52844.591 107032.18 100 b
# unique(DT) 746.855 776.6145 2201.657 864.932 919.489 55986.88 100 a
microbenchmark(duplicated(DF), duplicated(DT))
# Unit: microseconds
# expr min lq mean median uq max neval cld
# duplicated(DF) 43786.662 44418.8005 46684.0602 44925.0230 46802.398 109550.170 100 b
# duplicated(DT) 551.982 558.2215 851.0246 639.9795 663.658 5805.243 100 a
一般的な答えは、たとえば次のとおりです。
df <- data.frame(rbind(c(2,9,6),c(4,6,7),c(4,6,7),c(4,6,7),c(2,9,6))))
new_df <- df[-which(duplicated(df)), ]
X1 X2 X3
1 2 9 6
2 4 6 7
sqldf
の場合:
# Example by Mehdi Nellen
a <- c(rep("A", 3), rep("B", 3), rep("C",2))
b <- c(1,1,2,4,1,1,2,2)
df <-data.frame(a,b)
溶液:
library(sqldf)
sqldf('SELECT DISTINCT * FROM df')
出力:
a b
1 A 1
2 A 2
3 B 4
4 B 1
5 C 2
dplyr
のdistinct()
関数も使えます。特にたくさんの観測がある場合は、他の方法よりも効率的です。
distinct_data <- dplyr::distinct(yourdata)
あるいは、tidyr
を使用して、列4と5のデータを単一行にネストすることもできます。
library(tidyr)
df %>% nest(V4:V5)
# A tibble: 1 × 4
# V1 V2 V3 data
# <fctr> <int> <int> <list>
#1 platform_external_dbus 202 16 <tibble [5 × 2]>
2列目と3列目の重複は統計分析のために削除されましたが、4列目と5列目のデータはチブル内に保持されており、unnest()
を使用していつでも元のデータフレームに戻ることができます。