大赛简介
欧莱雅中国携手中国青少年发展基金会、阿里云、机器之心、魔搭社区、情感机器等多方力量,重磅推出 “科技大 FUN 颂 - 欧莱雅集团首届美妆科技黑客松大赛”,为全球全日制在校大学生搭建起一座通往美妆科技前沿的桥梁。本次大赛不仅设置了高达 200,000 元人民币(税前)的丰厚奖金池,更带来了 4 大极具挑战性与创新性的赛题,涵盖从 AI 美妆体验革新,到内容审核智能升级,从数据洞察工具开发,再到 AI 风控体系构建,全方位解锁美妆科技的无限可能。大赛时间安排紧凑合理,从 3 月 11 日开启的报名通道,到 7 月决赛在 WAIC 大会期间的激情碰撞,每一个阶段都承载着对参赛者创新思维与实践能力的期待。现在,让我们一同深入这场美妆科技盛宴,探寻其中的精彩赛题与规则细节。
如果你对大赛中的某个赛题特别感兴趣,或者想了解更多关于参赛的具体流程,都可以跟我说说,我能提供更详细的信息。
大赛时间
- 大赛报名:2025年3月11日-5月9日
- 作品提交:2025年4月1日-5月23日
- 人气争夺战:自作品提交之日起-2025年5月26日
- 决赛名单公布:2025年5月30日
- 训练营Workshop:2025年6月
- 大赛决赛:2025年7月(WAIC大会期间
- 颁奖典礼:2025年10月
赛题设置
本届大赛共设有4个赛题方向:
- 赛题一:创智体验家
- 赛题二:内容鉴查官
- 赛题三:数据解构师
- 赛题四:风控守护神
赛题一:创智体验家
1.赛题概述:
本赛题旨在提供参赛者一个开放创新的频道,鼓励大胆突破常规,释放无限创意,探索AI创新技术如何深度融入美妆行业,全面焕新人们的生活体验。美妆行业正快速变革,蕴含诸多未充分挖掘的机遇。我们鼓励参赛者着眼广泛人群,特别是尚未被充分开发的人群(如男性、银发族等),通过前沿AI技术深度挖掘其美妆需求与痛点,构建开拓性的美妆解决方案,引领行业新风向。
2.目标愿景:
让个性、包容、负责任、可持续的未来之美融入人们日常,在生活的每一个角落绚丽绽放。
3.题目要求:
技术基础:参赛成员需通过Qwen、LLaMA、DeepSeek等开源大模型(如Qwen2.5-7B-Instruct、QwQ、QvQ等)构建基于大模型和Agent技术的AI美妆解决方案。
4.探索范畴:
- 为消费者打造个性化的美妆服务。
- 推动美妆产品的研发创新。
- 塑造全新的美妆营销模式。
5.创意表现形式:
- 聚焦消费者在生活中使用美妆的实际痛点,提出有创意的AI解决方案,以一个或多个AI Agent的形式提交。
- 针对市面上未覆盖或关注的用户群体(如男性、银发族等)或未覆盖的场景。
- 引入更多样的交互方式,放大背后的AI能力,带给消费者更好的体验。
6.技术要求:
- 使用开源大模型作为核心AI能力,禁止使用未开源或开源协议明确禁止用于比赛、商业等场景的模型;不允许对LLM模型进行微调。
- 鼓励结合向量数据库、Agent、语音交互、多模态等技术,提升用户体验和产品匹配精度。
- 对场景进行更深层面的原型开发,如App、小程序、网页、推广机器人等形式。
- 探索Agent更多样化的应用场景,如网页嵌入、小程序、互动立牌广告、产品说明书辅助等。
7.赛题提供材料:
- 美妆行业介绍
- 欧莱雅公司和系列产品说明数据(详见附件《欧莱雅产品描述文件》)。
- 欧莱雅“美妆科技,创造每个人独一无二之美”的愿景解析。
8.作品提交形式:
可交互Demo:必须基于modelscope创空间提交一个可交互的demo,要求demo能够稳定运行,且包含全部所需的外部资源,以保证作品的可复现性。
代码打包:代码以zip文件形式打包提交。
演示视频:提交demo使用过程的标清视频,主要供评审组参考。
作品说明文档:提交.ppt格式的中英文作品说明文档,最多不超过6页,内容包括作品背景、技术实现方式、作品使用场景、未来完善方向。
其他展现形式:如有网页、小程序等展现形式,可单独以附件的形式提交链接或视频。
9.作品考察方向:
创新性:应用场景的创新性,是否拓展更多人群,是否打破现有市面工具的一些局限性等。
体验感:界面与交互流程的易用性和友好性。
精准度:交互的反馈内容准确,符合用户需求。
价值观:生动诠释欧莱雅“创造美,让世界为之所动”的使命,体现“美妆科技,创造每个人独一无二之美”的新愿景。
赛题二:内容鉴查官
1.赛题概述:
在当今信息爆炸的时代,文字、图片、视频等多模态内容在各类社交平台上广泛传播,已成为人们日常生活中不可或缺的部分。如何守护真实,维护美好?我们诚挚邀请参赛者设计开发一款AI智能体,为内容管理者和创作者提供便捷的自助式内容审核工具。该工具需具备强大的功能,能够精准识别图文信息,并根据预设规则高效地识别并标记需修改的内容,涵盖但不限于错别字、关键词、图文一致性和违规内容等,以维护健康安全的在线内容生态。
2.题目要求:
本赛题要求参赛成员通过Qwen、LLaMA、DeepSeek等开源大模型(如Qwen2.5-7B-Instruct、QwQ、QvQ等)构建一个Agent智能审核员,能够对推广内容进行高效识别与标记。具体要求如下:
A. 纯文本类内容审核:
- 错别字检测:识别文字内容中的错别字,并提供修改建议。
- 关键词识别:根据用户输入的产品关键词和规则描述,精准标记相关内容,如产品信息、推荐人群等。
- 违规内容检查:自动检测内容中包含的敏感、违规内容。
- 虚假内容识别:对社交平台中的文案内容进行真实性判断,给出真实性得分。
- 不适用广告识别:识别并使用极度、第一等不适用于广告场景的用语等。
B. 图文综合性内容审核:
- 图文一致性检测:准确判断文字内容与图片所示的主体、细节、场景等是否一致,对于不一致的地方要具体识别与标记。
- 图文综合风险识别:识别图片和文字是否存在敏感信息(如不良政治影射、低俗暗示等)、虚假宣传元素(夸大图片效果、虚构文字描述的功能等),并对相关信息进行具体识别与标记。
3.创意表现形式:
- 创新性内容审核界面设计:鼓励参赛选手充分发挥创造力,设计出更具创新性的内容审核界面。该界面应以高度交互式的方式,助力内容审核人员高效完成信息审核与标注工作。
- 选用多模态模型实现多元信息识别:鼓励选手选用多模态模型(例如Qwen-VL系列、QvQ等),实现对文案中的图像、表格等多种信息的准确识别,提升审核的准确性和完整性。
4.技术要求:
- 使用开源大模型(如Qwen2.5-7B-Instruct、QwQ、LLaMA、DeepSeek等)作为核心AI能力,可参考文末附件《开源模型推荐》。禁止使用未开源或开源协议明确禁止用于比赛、商业等场景的模型。
- 技术融合提升体验与精度:鼓励结合向量数据库、Agent、语音交互、多模态等技术,以提升用户体验和产品匹配精度,打造更具竞争力的内容审核解决方案。
- 模型微调优化:鼓励选手运用开源模型和合成数据技术对模型进行微调,节省研发时间,扩充训练数据的多样性和规模。
5.赛题提供材料:
- 数据集标注样例:包含待审核的文案,详见《赛题二:内容鉴查官数据标注》。
- 数据拓展:除主办方提供的案例外,参赛者可以自行拓展数据,但需确保数据来源合法合规,对个人隐私材料进行数据保护。拓展的数据有助于提升智能体的泛化能力,在评估时会作为参考因素之一。
- 如需进行模型微调,可以参考附件《modelscope微调算力申请》获得对应GPU资源。
6.作品提交形式:
可交互Agent及核心代码:
必须基于modelscope创空间提交一个可交互的Agent及核心代码,要求demo能够稳定运行,按照赛题要求完成所有识别及标注项,且包含全部所需的外部资源,以保证作品的可复现性。
Agent输入输出要求:
支持多模态图文信息输入:无论是纯文本格式(如.txt)、常见文档格式(如.doc、.docx)的文字,还是JPEG、PNG、BMP等常见格式的图片,都能被顺利识别并纳入审核流程。
识别交互过程中的文字或语音输入。
以注释说明修改原因和依据:在输出修改后的文案下方,若有需要,应添加注释,简要且清晰地说明每一处修改的原因和依据。
直接输出修改后的完整文案:确保所有存在问题的部分都已被妥善修正。
代码提交:代码需以zip文件形式打包提交。
演示视频:提交demo的使用过程视频,主要为评审组参考,视频效果不作为评选标准,因此仅需标清视频。
作品说明文档:提交*.ppt格式的中英文作品说明文档,最多不超过6页,内容包括作品背景、技术实现方式、作品使用场景、未来完善方向。
模型微调项目(如适用):如需对LLM模型进行微调,需要在modelscope社区中提交模型微调项目,并附上可访问的链接,包括模型训练代码、合成数据及合成数据用代码、训练超参数、基于SwanLab的训练日志等,保证微调过程可复现。
7.作品考察方向:
- 准确性:审核结果的准确性是首要评估指标。
- 高效性:考量智能体审核内容所需的时间。
- 完整性:评估智能体是否实现了赛题要求的所有功能,功能越全面得分越高。
- 体验感:界面与交互流程的易用性和友好性。
赛题三:数据解构师
1.赛题概述:
数据蕴藏着解锁未来美妆趋势的钥匙,但在企业内部,非技术人员在实现快速数据可视化及数据洞察方面仍面临技术障碍,如需要掌握工具、使用代码等。我们希望参赛者开发一款基于大语言模型的对话式数据分析工具,使不熟悉代码和复杂数据操作的业务人员也能轻松通过自然语言与数据进行交互,快速获取数据洞察,并辅助业务决策。
2.题目要求:
参赛成员需通过开源大模型(如qwen2.5-coder--instruct、qwen-coder-、QwQ、LLaMA、DeepSeek等)构建一款能够以自然语言交互形式对数据库中数据进行访问和分析,并将数据和图表进行可视化显示的工具,以辅助非技术人员进行数据洞察与决策。功能可包括:
自然语言提问:用户可通过自然语言提问获取数据洞察,例如“过去三个月的销量趋势如何?”、“哪些地区的产品表现最佳?”
智能图表生成:根据用户的分析需求自动生成可视化图表,如折线图、柱状图、饼图等。
推荐分析:在用户输入不明确时,智能推荐可能的分析方向,例如“用户群分析”或“销售渠道优化”。
3.创意表现形式:
- 连续对话分析:通过连续对话深挖数据洞察,例如“细化上一问题的分析维度”。
- 场景应用:可作为小程序、桌面应用或网页嵌入工具。
- 业务板块推荐:默认选择美妆行业的销售分析方向,提供个性化分析模板(如描述性分析、诊断性分析、预测性分析、SWOT分析、漏斗分析、逻辑树等)。支持用户扩展选择其它业务场景,用户可上传业务场景背景描述和业务数据。
4.技术要求:
- 核心AI能力:使用开源大模型作为核心AI能力,可参考文末附件《开源模型推荐》。禁止使用未开源或开源协议明确禁止用于比赛、商业等场景的模型。
- 数据源接入:支持接入标准数据库作为洞察的数据源,具体访问接口可参考后文赛题材料提供。
- 前端图表渲染与数据可视化:推荐通过Gradio或Streamlit实现前端图表渲染和数据可视化,鼓励更多元的方式以实现丰富多彩的可视化效果。
- 跨平台运行:参赛项目代码需要以docker-compose.yml方式构建前后端、数据库配置以及附上初始化数据,确保应用能在跨平台环境中正常运行。
5.赛题提供材料:
- 案例数据库描述及数据集合:包括美妆行业的销售数据、产品数据,见附件《赛题三:数据解构师(random_order_data)》。
- 建库脚本:见附件《赛题三:数据解构师-建库脚本.txt》。
- 模型微调资源:如需进行模型微调,可以参考附件《modelscope微调算力申请》获得对应GPU资源。
6.作品提交形式:
- 可交互Agent:必须基于modelscope创空间提交一个可交互的Agent,要求Agent能够稳定运行,且包含全部所需的外部资源,以保证作品的可复现性。
- 代码提交:参赛项目代码需要以docker-compose.yml方式构建前后端、数据库配置以及附上初始化数据,确保应用能在跨平台环境中运行。代码以zip文件形式打包。
- 演示视频:提交demo的使用过程视频,主要为评审组参考,视频效果不作为评选标准,因此仅需标清视频。
- 作品说明文档:提交*.pptx格式的中英文作品说明文档,最多不超过6页,内容包括作品背景、技术实现方式、作品使用场景、未来完善方向。
- 模型微调项目(如适用):如需对LLM模型进行微调,需要在modelscope社区中提交模型微调项目,并附上可访问的链接,包括模型训练代码、合成数据及合成数据用代码、训练超参数、基于SwanLab的训练日志等,保证微调过程可复现。
7.作品考察方向:
- 准确性:数据分析和图表结果是否正确。
- 易用性:非技术人员是否容易上手。
- 高性能:查询和图表生成速度是否够快。
- 可视化丰富度:图表种类多样、美观且有效传达信息。
- 灵活度与扩展性:是否易于适配其他业务数据和分析场景。
- 跨平台兼容性:使用Docker是否能轻松部署和稳定运行于不同平台。
赛题四:风控守护神
1.赛题概述:
随着AI的广泛使用,其应用也伴随着伦理和安全挑战。如何理解并规避AI风险,如何正确、合理使用AI,使新的AI应用值得信赖,同时保护好数据隐私且无偏见,成为亟待解决的问题。我们邀请参赛者思考如何将“负责任的AI”原则融入到实际应用中,提出创新的解决方案。在用户输入一定的工具开发业务场景描述后,自动给出该应用搭建过程中需要注意的可信任AI实践,共同构建可信的美妆科技未来,例如算法公平性评估、可解释的AI试妆体验等。
2.题目要求:
可信任AI评估框架:
- 参赛人员需构建可信任AI评估框架,建立评估领域及各领域内的评估要点。
- 充分考虑AI面临的各角度风险,如模型本身风险(性能、稳定性、不透明、不合理等)、数据安全风险(数据所有权、数据质量、数据泄露等)、基础设施风险(服务中断、非授权访问、注入等)。
- 风险领域及要点不限于上述举例,参赛人员可开放性构建评估方案。
评估结果设计:
- 参赛人员根据所设计的评估框架,设计评估结果体系。
- 可通过scoring card或其他方法体现上述方案的可视化,包括总体评估结果(阶梯性汇总,如打分、等级等)和分项评估结果(体现具体问题及整改建议)。
评估方案落地:
- 参赛人员基于评估框架和评估要点,设计可落地的测试方法。
- 该方法可自动化实现(优先)、亦或手工实现、亦或设计调查问卷实现,落地形式开放性。
- 若能实现自动化或半自动化,参赛选手应提交测试Agent;若通过全手工形式完成评估,应提交手工评估所需要的表单等文件。
实盘演练:
- 参赛选手使用其设计的可信任AI评估方案,至少测试国内主流AI平台,生成一份测试报告。
- 对于进入决赛的参赛作品,主办方也将使用其评估方案,测试本次活动其他三个赛题进入参赛所提交的AI Agent,用于验证方案落地性。
3.技术要求:
核心AI能力模型选择:可参考文末附件《开源模型推荐》。
4.赛题提供材料:
- 本赛题无具体业务场景,参赛人员设计的可信任AI评估框架应能通用测试AI模型,因此无训练数据。
- 鼓励参赛人员在线自主学习更多资料,文末附相关链接文献供参考。
5.作品提交形式:
作品说明文档:提交*.pptx格式的中英文作品说明文档,最多不超过6页。
内容包括:作品背景、技术实现方式、评估体系、作品使用场景、未来完善方向。
可信任AI测试工具及代码:提交可信任AI测试Agent(自动、半自动形式)及核心代码,或用于可信任AI测试的文档(全手工形式),以zip文件形式打包。
演示视频:提交demo使用过程的演示视频,主要供评审组参考,视频效果不作为评选标准,因此仅需标清视频。
测试报告及数据集(可选,加分项):
- 提交针对任意一个国内主流AI应用的测试报告。
- 呈现小组学习后自己整理的数据集。
6.作品考察方向:
- 完整性:评估可信任AI评估框架的完整性,是否涵盖主要风险领域,测试方法是否完整体现风险领域。
- 准确性:评估结果应准确体现AI应用的可信任风险,误报少。
- 易用性:该可信任AI评估方案(无论Agent或全手工handbook)应操作方便,评估报告简洁明了。
参赛须知
1.参赛对象
本次大赛面向全球范围内全日制在校大学生的本科生、硕士研究生及博士研究生,旨在鼓励并激发其在 AI Agent 领域的创新思维与实践能力。
2.参赛名额及方式
参赛者必须以团队形式进行报名,每支队伍限制必须为3人,每人限加入1支队伍。每支队伍须指定1名队长且仅能选择1个赛题方向进行参赛。
3.注意事项
大赛组织机构单位中如有涉及题目编写、数据接触的人员禁止参赛。
4.报名渠道
大赛官网地址:【点击登录】
ModelScope魔搭社区:【点击登录】
温馨提示:已完成组队的请队长们可以扫码报名,如还未完成组队的小伙伴也可以报名填写信息来寻找您点点队友。
作品提交
1、按各赛题要求将作品上传发布在 modelscope 创空间
*请注意:所有参赛选手在提交作品时,须选择将相关代码以【MIT开源协议】形式公开发布。若选手选用开源模型或使用经开源模型微调的模型,可额外附上开源模型所使用协议。
2、其他资料请按照作品上传步骤说明,打包发送至邮箱
【beauty.techathon@loreal.com;xzssh@jiqizhixin.com;competition@modelscope.cn】
*请注意:为确保作品成功送达,请务必使用欧莱雅大文件传输工具【https://bigfile-cn.lorealchina.com/web/】发送,具体步骤请务必点击链接并下载查看https://jiqizhixin.feishu.cn/file/HTtzb8GDqoWMj2x6pEqckN4tn1c
奖项设置
本次大赛设有丰厚的奖金池,总额高达200,000元人民币现金奖励(税前),此外还有众多其他福利等你来拿!
奖金具体分配如下:
人气争夺战奖项奖金为10,000元,决赛奖项奖金则高达190,000元。
组织机构
主办单位:欧莱雅中国
支持单位:中国青少年发展基金会、阿里云、机器之心、魔搭社区、情感机器
注意事项
在比赛过程中,如发现或经举报并认定存在以下违规行为,将即刻取消参赛资格。违规行为包括但不限于:参赛报名信息作弊或造假、在参赛过程中违反相关法律、法规、政策规定、涉嫌抄袭或侵犯他人知识产权、提交的作品内容不健康、淫秽、色情、毁谤第三方或侵犯个人隐私等。
更多AI大赛请关注
AITOP100平台有收录、承办、推广各类型AI大赛活动业务,需要合作的朋友可以在首页正下方联系商务洽谈
AI人工智能网站--AITOP100平台AI创作大赛专区: 点击此处进入AI大赛专区
AI人工智能网站--AITOP100平台活动专区:点击此处进入活动专区
AITOP100平台大赛社群二维码: