Skip to content

hjzlitter/Automated_Essay_Scoring_2.0

Repository files navigation

比赛介绍

给出一段学生写的作文,对其进行打分。 给的train内容是编号 + 文本 + score(就是给作文打分)

  • 编号与score似乎是没有关系的,感觉这个比赛可能不太会有数据泄漏的问题。

优化目标: 1是最优奖,用koppa作为评价标准。 2是效率奖,主办方自己造的一个评分规则:koppa与时间线性组合。

排行榜只是33%数据!!!!因此波动性会非常大,一定要注意泛化性!!

发展顺序

最早是lgbm,仅仅使用了paragraph、 sentence、word 词频等feature。 然后加上了tfdif,再然后加上了countvectorizer, 这时候差不多0.801了。

Method LB
LGBM 5 fold 0.801
LGBM 15 fold 0.802
LGBM 15 fold + post-processing 0.803
LGBM 15 fold + 5 fold Deberta (Ensemble) 0.807
LGBM 16 fold + 5 fold Deberta (Ensemble) 0.808
LGBM 15 fold + 5 fold Deberta (Ensemble) + CountVectorizer 0.810
LGBM 15 fold + 5 fold Deberta (as features) + CountVectorizer 0.811
LGBM 16 fold + 5 fold Deberta (as features) + CountVectorizer + HashingVectorizer 0.811
LGBM 15 fold + 5 fold Deberta (as features) + TfidfVectorizer(ngram(3,6)) + CountVectorizer 0.812
LGBM 15 fold + (new)5 fold Deberta (as features) + TfidfVectorizer(ngram(3,6)) + CountVectorizer(ngram(3,5)) 0.816

可关注的人

  • Chris Deotte 此人在AIMO里面也提供了很多思路。这人非常擅长此类小数据比赛,几十个金牌来着。

一些代研究问题,可能有用的方向

  • 这些作文的topic有哪些吗?
  • 是否作文某些情感会造成score偏移?
  • 如果按中文逻辑来说,高级词多 分数高的可能性更高一点,我们是不是要用一些模型来分辨?(就是说可能能更有针对性地微调llm)

本次比赛总体思路

可以看看AI text detect比赛找灵感。

  • 模型
    • lgbm与textCNN相比谁更快?感觉textCNN可能在提取前后文同特征上这点更具有优势?而且CNN速度也快。
    • gru /lstm看也有人用,不知道效果如何。
  • inference 技术
    • 似乎可以用int
    • loss什么最好?
    • 参数什么最好?(目前只是大概一说)

About

自动评分系统的比赛

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published