周悦则展示了实验数据的可视化图表:“这是我们在不同数据集上运行模型后的预测结果对比,可以看出,即使在噪声较大的情况下,模型依然保持了较高的稳定性。”
我最后总结:“综上所述,我们认为该模型不仅适用于当前情境,也具备良好的迁移能力,可以应用于其他类似预测任务。”
全场一片寂静,随后响起一阵掌声。
评委席上,裁判长轻轻点头:“楚同学的团队表现出了极高的专业素养,逻辑严密,数据详实,值得肯定。”
我松了一口气,但没有放松警惕。赵启铭的脸色很难看,他显然没想到我们会这么快稳住局势。
“看来你们确实做了不少功课。”他冷笑道,“不过,比赛还没结束。”
“当然。”我回以微笑,“我也很期待接下来的环节。”
下一题很快公布,是一道关于机器学习算法优化的问题。这次赵启铭抢到了答题权,他的团队开始阐述自己的方案。
我一边听,一边快速浏览他们的模型结构。果然,他们在某些细节上故意模糊处理,试图混淆视听。但这些小动作瞒不过我们的眼睛。
“他们用了简化版的随机森林算法。”林悦低声提醒,“但没提特征重要性分析,明显是在避重就轻。”
“而且他们在训练过程中跳过了预处理步骤。”周悦皱眉,“这种做法会导致模型过拟合。”
我点点头,等他们说完后,主动举手:“评委老师,我有个问题想请教。”
赵启铭脸色一沉,但主持人还是点了我。
“我想请问,贵团队在训练模型时是否考虑了特征之间的相关性?”我直截了当地问,“如果没有进行去相关处理,那么最终的预测结果可能会受到多重共线性影响。”
对方一怔,显然没料到我会问得这么细。
“我们……当然考虑了。”赵启铭勉强回应,“只是在展示过程中省略了一些步骤。”
本小章还未完,请点击下一页继续阅读后面精彩内容!
“哦?”我微微一笑,“那能否请贵团队提供具体的去相关方法和实现代码?”
评委们顿时来了兴趣,纷纷看向赵启铭团队。