因此,我正在对来自 IEEE 端口的 COVID-19 Tweets 数据集进行一个项目,我计划分析从 2020 年 3 月至今的时间段内的推文。问题是每个数据有 300 多个 CSV,每个数据都有数百万行。现在我需要先对所有这些推文进行水化,然后才能过滤它们。今天仅补充 1 个 CSV 就需要两个多小时。
我想知道是否有更有效的方法可以解决这个问题。是否可以将所有 CSV 合并为一个,然后将一个文件水化很长时间,或者如果每个文件花费这么长时间,我是否必须使用较小的数据集。
我刚刚开始处理现实生活中的数据,因此您可以将我视为真正的初学者,我们将不胜感激。谢谢!