Я новичок как в Scala, так и в Spark, поэтому, надеюсь, кто-нибудь может дать мне знать, где я ошибаюсь.
У меня есть набор данных из трех столбцов (идентификатор, имя, год), и я хочу найти самый последний год для каждого имени. Другими словами:
BEFORE AFTER
| id_1 | name_1 | 2015 | | id_2 | name_1 | 2016 |
| id_2 | name_1 | 2016 | | id_4 | name_2 | 2015 |
| id_3 | name_1 | 2014 |
| id_4 | name_2 | 2015 |
| id_5 | name_2 | 2014 |
Я думал, что groupByKey
и reduceGroups
справятся со своей задачей:
val latestYears = ds
.groupByKey(_.name)
.reduceGroups((left, right) => if (left.year > right.year) left else right)
.map(group => group._2)
Но он выдает эту ошибку и выдает много сгенерированного кода Java:
ERROR CodeGenerator: failed to compile:
org.codehaus.commons.compiler.CompileException:
File 'generated.java', Line 21, Column 101: Unknown variable or type "value4"
Интересно, что если я создам набор данных только со столбцами имени и года, он будет работать, как и ожидалось.
Вот полный код, который я запускаю:
object App {
case class Record(id: String, name: String, year: Int)
def main(args: Array[String]) {
val spark = SparkSession.builder().master("local").appName("test").getOrCreate()
import spark.implicits._
val ds = spark.createDataset[String](Seq(
"id_1,name_1,2015",
"id_2,name_1,2016",
"id_3,name_1,2014",
"id_4,name_2,2015",
"id_5,name_2,2014"
))
.map(line => {
val fields = line.split(",")
new Record(fields(0), fields(1), fields(2).toInt)
})
val latestYears = ds
.groupByKey(_.name)
.reduceGroups((left, right) => if (left.year > right.year) left else right)
.map(group => group._2)
latestYears.show()
}
}
EDIT: я считаю, что это может быть ошибка в Spark v2.0.1. После понижения до версии 2.0.0 этого больше не происходит.