Compare commits

...

No commits in common. "37d161f59d65e6a66b41e6a5e341e8354977b572" and "b46c65ac73e0e19d04d2dc3662a8d14270a8ac90" have entirely different histories.

16 changed files with 7117 additions and 791 deletions

View File

@ -1,6 +0,0 @@
# DeepSeek API Key
# 获取地址https://platform.deepseek.com/
DEEPSEEK_API_KEY=sk-your-api-key-here
# 如果使用其他 API在此添加
# OTHER_API_KEY=your-key-here

View File

@ -1,304 +0,0 @@
name: autograde-assignment-05-final-project
on:
push:
branches:
- main
tags:
- 'submit'
- 'submit-*'
workflow_dispatch:
permissions:
contents: read
pull-requests: write
jobs:
check-trigger:
runs-on: docker
container:
image: alpine:latest
outputs:
should_run: ${{ steps.check.outputs.trigger }}
steps:
- name: Check commit message for trigger keyword
id: check
run: |
COMMIT_MSG="${{ github.event.head_commit.message || '' }}"
echo "Commit message: $COMMIT_MSG"
if echo "$COMMIT_MSG" | grep -q "完成作业"; then
echo "trigger=true" >> $GITHUB_OUTPUT
echo "✅ Commit contains \"完成作业\",即将执行评分"
else
echo "trigger=false" >> $GITHUB_OUTPUT
echo "⛔ 只有包含"完成作业"的提交才会执行自动评分" >&2
fi
grade:
needs: check-trigger
if: needs.check-trigger.outputs.should_run == 'true'
runs-on: docker
container:
image: python:3.11
options: --user root
timeout-minutes: 30
steps:
- name: Configure APT mirror (Aliyun)
run: |
set -e
for f in /etc/apt/sources.list /etc/apt/sources.list.d/*.list /etc/apt/sources.list.d/*.sources; do
[ -f "$f" ] || continue
sed -i -E 's|https?://deb.debian.org|http://mirrors.aliyun.com|g' "$f" || true
sed -i -E 's|https?://security.debian.org|http://mirrors.aliyun.com/debian-security|g' "$f" || true
sed -i -E 's|https?://archive.ubuntu.com|http://mirrors.aliyun.com|g' "$f" || true
sed -i -E 's|https?://ports.ubuntu.com|http://mirrors.aliyun.com|g' "$f" || true
done
apt-get -o Acquire::Check-Valid-Until=false update -y
DEBIAN_FRONTEND=noninteractive apt-get install -y --no-install-recommends \
git ca-certificates python3-pip rsync \
libcairo2 libpango-1.0-0 libpangocairo-1.0-0 libgdk-pixbuf-2.0-0 libffi-dev shared-mime-info \
fontconfig fonts-noto-cjk fonts-wqy-microhei
fc-cache -f -v >/dev/null 2>&1 || true
rm -rf /var/lib/apt/lists/*
- name: Checkout code
env:
GITHUB_TOKEN: ${{ github.token }}
run: |
git config --global --add safe.directory ${{ github.workspace }}
git init
REPO_URL="${{ github.server_url }}/${{ github.repository }}.git"
AUTH_URL=$(echo "$REPO_URL" | sed "s|://|://${GITHUB_TOKEN}@|")
git remote add origin "$AUTH_URL"
git fetch --depth=1 origin ${{ github.sha }}
git checkout ${{ github.sha }}
- name: Fix permissions
run: chown -R $(whoami):$(whoami) ${{ github.workspace }} || true
- name: Fetch grading scripts
working-directory: ${{ github.workspace }}
env:
EXTERNAL_GITEA_HOST: ${{ secrets.EXTERNAL_GITEA_HOST }}
run: |
set -e
TESTS_USERNAME="${RUNNER_TESTS_USERNAME:-}"
TESTS_TOKEN="${RUNNER_TESTS_TOKEN:-}"
if [ -z "$TESTS_TOKEN" ] || [ -z "$TESTS_USERNAME" ]; then
echo "❌ RUNNER_TESTS_USERNAME / RUNNER_TESTS_TOKEN not set!"
exit 1
fi
# Resolve host
if [ -n "$EXTERNAL_GITEA_HOST" ]; then
HOST="$EXTERNAL_GITEA_HOST"
elif [ -n "$GITEA_ROOT_URL" ]; then
HOST=$(echo "$GITEA_ROOT_URL" | sed 's|https\?://||' | sed 's|/$||')
else
HOST=$(echo "${{ github.server_url }}" | sed 's|https\?://||' | cut -d'/' -f1)
fi
ORG=$(echo "${{ github.repository }}" | cut -d'/' -f1)
REPO_NAME=$(echo "${{ github.repository }}" | cut -d'/' -f2)
if echo "$REPO_NAME" | grep -q -- '-stu_'; then
ASSIGNMENT_ID=$(echo "$REPO_NAME" | sed 's/-stu_.*//')
elif echo "$REPO_NAME" | grep -q -- '-template'; then
ASSIGNMENT_ID=$(echo "$REPO_NAME" | sed 's/-template.*//')
else
ASSIGNMENT_ID="assignment-05-final-project"
fi
echo "📥 Fetching grading scripts from ${ORG}/${ASSIGNMENT_ID}-tests..."
AUTH_URL="http://${TESTS_USERNAME}:${TESTS_TOKEN}@${HOST}/${ORG}/${ASSIGNMENT_ID}-tests.git"
git -c http.sslVerify=false clone --depth=1 "$AUTH_URL" _priv_tests
rm -rf .autograde
mkdir -p .autograde
cp _priv_tests/autograde/*.py .autograde/
cp _priv_tests/autograde/*.sh .autograde/ 2>/dev/null || true
# Copy LLM rubrics
if [ -d "_priv_tests/llm" ]; then
mkdir -p .llm_rubrics
cp _priv_tests/llm/*.json .llm_rubrics/ 2>/dev/null || true
fi
rm -rf _priv_tests
- name: Install Python dependencies
run: |
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
if [ -f requirements.txt ]; then
pip install --no-cache-dir -r requirements.txt
fi
# 安装评分脚本依赖与 PDF 生成依赖
pip install --no-cache-dir requests python-dotenv pyyaml markdown weasyprint
- name: Validate manifest.yaml
run: |
if [ ! -f manifest.yaml ]; then
echo "❌ manifest.yaml not found!"
echo '{"error": "missing_manifest"}' > run_results.json
else
echo "✅ manifest.yaml found"
fi
- name: Run project commands
working-directory: ${{ github.workspace }}
run: |
if [ -f manifest.yaml ]; then
python ./.autograde/run_project.py . --out run_results.json --timeout 60
fi
- name: Grade documentation (LLM)
run: |
python ./.autograde/llm_evaluate.py \
--run-results run_results.json \
--rubric .llm_rubrics/rubric_documentation.json \
--dimension documentation \
--out doc_grade.json
- name: Grade functionality (LLM)
run: |
python ./.autograde/llm_evaluate.py \
--run-results run_results.json \
--rubric .llm_rubrics/rubric_functionality.json \
--dimension functionality \
--out func_grade.json
- name: Grade code quality (LLM)
run: |
python ./.autograde/llm_evaluate.py \
--run-results run_results.json \
--rubric .llm_rubrics/rubric_code_quality.json \
--dimension code_quality \
--out code_grade.json
- name: Aggregate grades
run: |
python ./.autograde/aggregate_grade.py \
--documentation doc_grade.json \
--functionality func_grade.json \
--code-quality code_grade.json \
--out final_grade.json \
--summary final_summary.md
- name: Generate PDF report
working-directory: ${{ github.workspace }}
env:
REPO: ${{ github.repository }}
COMMIT_SHA: ${{ github.sha }}
run: |
if [ -f final_grade.json ]; then
python ./.autograde/generate_pdf_report.py \
--run-results run_results.json \
--grade final_grade.json \
--readme README.md \
--report REPORT.md \
--changelog CHANGELOG.md \
--out grade_report.pdf \
--commit-sha "$COMMIT_SHA"
fi
- name: Upload report to student repo
if: env.RUNNER_METADATA_TOKEN != ''
working-directory: ${{ github.workspace }}
env:
TOKEN: ${{ env.RUNNER_METADATA_TOKEN }}
REPO: ${{ github.repository }}
SERVER_URL: ${{ github.server_url }}
COMMIT_SHA: ${{ github.sha }}
run: |
REPORT_FILE=""
if [ -f grade_report.pdf ]; then
REPORT_FILE="grade_report.pdf"
elif [ -f grade_report.html ]; then
REPORT_FILE="grade_report.html"
elif [ -f grade_report.md ]; then
REPORT_FILE="grade_report.md"
fi
if [ -n "$REPORT_FILE" ]; then
API_URL="http://gitea:3000/api/v1"
SHORT_SHA=$(echo "$COMMIT_SHA" | cut -c1-7)
DEST_PATH="reports/grade_report_${SHORT_SHA}.${REPORT_FILE##*.}"
CONTENT=$(base64 -w 0 "$REPORT_FILE")
printf '{"message": "Add grade report for %s", "content": "%s"}\n' "$SHORT_SHA" "$CONTENT" > /tmp/upload_request.json
RESULT=$(curl -s -X POST -H "Authorization: token $TOKEN" \
-H "Content-Type: application/json" \
"$API_URL/repos/$REPO/contents/$DEST_PATH" \
-d @/tmp/upload_request.json)
if echo "$RESULT" | grep -q '"content"'; then
echo "✅ Report uploaded to $DEST_PATH"
else
echo "POST failed, trying PUT with SHA..."
SHA=$(curl -s -H "Authorization: token $TOKEN" \
"$API_URL/repos/$REPO/contents/$DEST_PATH" \
| python3 -c "import sys,json; d=json.load(sys.stdin); print(d.get('sha','') if isinstance(d,dict) and 'sha' in d else '')" 2>/dev/null || echo "")
if [ -n "$SHA" ]; then
printf '{"message": "Update grade report for %s", "content": "%s", "sha": "%s"}\n' "$SHORT_SHA" "$CONTENT" "$SHA" > /tmp/upload_request.json
RESULT=$(curl -s -X PUT -H "Authorization: token $TOKEN" \
-H "Content-Type: application/json" \
"$API_URL/repos/$REPO/contents/$DEST_PATH" \
-d @/tmp/upload_request.json)
if echo "$RESULT" | grep -q '"content"'; then
echo "✅ Report updated at $DEST_PATH"
else
echo "⚠️ Failed to update report: $RESULT"
fi
else
echo "⚠️ Could not get file SHA, upload failed"
fi
fi
rm -f /tmp/upload_request.json
fi
- name: Create metadata
working-directory: ${{ github.workspace }}
env:
REPO: ${{ github.repository }}
LANGUAGE: python
run: |
if [ -f final_grade.json ]; then
export GRADE_TYPE=final
export GRADE_FILE=final_grade.json
if [ -f .autograde/create_minimal_metadata.py ]; then
python ./.autograde/create_minimal_metadata.py > metadata.json || echo "{}" > metadata.json
else
echo "{}" > metadata.json
fi
fi
- name: Upload metadata
if: env.RUNNER_METADATA_TOKEN != ''
working-directory: ${{ github.workspace }}
env:
METADATA_REPO: ${{ github.repository_owner }}/course-metadata
METADATA_TOKEN: ${{ env.RUNNER_METADATA_TOKEN }}
METADATA_BRANCH: ${{ env.RUNNER_METADATA_BRANCH }}
STUDENT_REPO: ${{ github.repository }}
RUN_ID: ${{ github.run_id }}
COMMIT_SHA: ${{ github.sha }}
SERVER_URL: ${{ github.server_url }}
run: |
if [ -f metadata.json ] && [ -f .autograde/upload_metadata.py ]; then
python ./.autograde/upload_metadata.py \
--metadata-file metadata.json \
--metadata-repo "${METADATA_REPO}" \
--branch "${METADATA_BRANCH:-main}" \
--student-repo "${STUDENT_REPO}" \
--run-id "${RUN_ID}" \
--commit-sha "${COMMIT_SHA}" \
--workflow grade \
--server-url "${SERVER_URL}" \
--external-host "${EXTERNAL_GITEA_HOST}"
else
echo "⚠️ metadata.json or upload_metadata.py not found, skipping upload"
fi

4
.gitignore vendored Normal file
View File

@ -0,0 +1,4 @@
.venv/
__pycache__/
*.pyc
results/

View File

@ -1,48 +0,0 @@
# 版本记录
## v1.0.0 (YYYY-MM-DD) - 最终提交版本
### 新增
- [功能] 完成 XXX 功能
- [功能] 添加 XXX 特性
### 修复
- [Bug] 修复 XXX 问题
- 原因:描述问题原因
- 修改:描述如何修复
### 改进
- [优化] 改进了 XXX 的性能
- [重构] 重构了 XXX 模块,提高可读性
---
## v0.2.0 (YYYY-MM-DD) - 功能完善
### 新增
- 添加了 XXX 功能
### 修复
- 修复了 XXX 边界情况
- 修复了 XXX 错误处理
---
## v0.1.0 (YYYY-MM-DD) - AI 初版
### 新增
- 基本功能实现
- 初始代码框架由 AI 生成
### 已知问题
- XXX 边界情况未处理
- XXX 错误处理不完善
- XXX 功能待实现

View File

@ -1,197 +0,0 @@
# 期末项目评分标准
> 💯 **总分**25 分
> 本文档详细说明评分系统如何评估你的项目,请仔细阅读。
---
## 总览
| 评估维度 | 分值 | 评估内容 |
|---------|------|---------|
| 📄 文档质量 | **8 分** | REPORT.md (5分) + CHANGELOG.md (3分) |
| ⚡ 功能表现 | **12 分** | 运行 manifest.yaml 中的命令,评估输出 |
| 🔧 代码质量 | **5 分** | 评估代码结构、可读性、安全性 |
---
## ⚠️ 必选功能(重要!)
以下 5 项功能是**必选要求**,缺少任何一项都会严重影响得分:
| 必选功能 | 说明 | 缺失后果 |
|---------|------|---------|
| **LLM 集成** | 必须调用 DeepSeek/OpenAI API | ❌ 功能分最高 5/12代码结构最高 1/2 |
| 外部数据交互 | 文件读写或其他 API 调用 | 影响核心功能评分 |
| 数据处理逻辑 | 有实质性数据操作,不只是透传 | 影响核心功能评分 |
| 用户交互 | CLI (argparse) 或 Web (Streamlit) | 影响用户体验评分 |
| 错误处理 | 无效输入不会导致程序崩溃 | 影响错误处理评分 |
> 🚨 **LLM 集成是最重要的必选项!** 没有 LLM 功能的项目将被视为不符合基本要求。
---
## 📄 文档质量评分8 分)
### REPORT.md 反思报告5 分)
| 评分项 | 分值 | 满分标准 | 零分情况 |
|-------|------|---------|---------|
| **项目定位** | 1 分 | 清楚说明解决什么问题、目标用户、为什么值得做 | 只说"完成作业"或占位符 `[在此填写]` |
| **技术决策** | 2 分 | 有技术选型对比表、选择理由、**有效的 Prompt 示例**、AI 帮不了的思考 | 模板 `[例JSON]` 未替换,或"与 AI 协作"部分空白 |
| **迭代成长** | 1 分 | 描述真实遇到的挑战、尝试的方案、学到的经验 | 空洞的占位符或流水账 |
| **自我反思** | 1 分 | 诚实评价项目优缺点,有具体的遗憾点 | 套话"收获很大"或空白 |
#### 技术决策详细说明2分项
这一项评估两部分内容:
**1. 技术选型1分**
- 填写技术选型表格数据存储、用户界面、LLM提供商等
- 说明考虑过的替代方案和选择理由
- 描述最难的技术决策
**2. 与 AI 协作1分**
- 展示一个你写得好的 Prompt 示例
- 解释为什么这个 Prompt 有效
- 说明 AI 帮不了、必须你自己思考的地方
### CHANGELOG.md 版本记录3 分)
| 分数 | 标准 |
|------|------|
| **3 分** | 3+ 个版本,每版有实质变化,日期真实(如 2024-12-06详细描述改动原因 |
| **2 分** | 2 个版本,能看出迭代过程 |
| **1 分** | 1 个版本或记录过于简略 |
| **0 分** | 无记录,或日期是 `YYYY-MM-DD`、内容是 `XXX功能` 等占位符 |
---
## ⚡ 功能表现评分12 分)
评测系统会运行你在 `manifest.yaml` 中声明的命令,根据输出评分。
### 核心功能4 分)
| 分数 | 标准 |
|------|------|
| **4 分** | demo 命令展示 5+ 个功能功能间有数据流转添加→查询→分析→导出LLM 是核心流程,输出有格式化 |
| **3 分** | 功能完整,**包含有效的 LLM 集成**,输出正确清晰 |
| **2 分** | 主要功能可用,但 **LLM 功能缺失或无效**(这是缺少 LLM 时的最高分!) |
| **1 分** | 部分功能可用,有明显 bug |
| **0 分** | 输出模板提示"🚧 项目待实现",或只有 --help |
### LLM 集成3 分)
> ⚠️ **这是必选功能!** 此项为 0 分意味着项目不符合基本要求。
| 分数 | 标准 |
|------|------|
| **3 分** | LLM 基于用户数据做个性化分析,输出 50 字以上有实质内容,去掉 LLM 产品价值显著降低 |
| **2 分** | LLM 调用成功,返回有意义的内容,与用户数据相关 |
| **1 分** | LLM 返回通用模板内容,或输出过短(<20字与用户数据无关 |
| **0 分** | 无 LLM 调用,或完全失败 ❌ |
### 错误处理3 分)
| 分数 | 标准 |
|------|------|
| **3 分** | 全部无 Traceback有自定义友好提示如"错误:日期格式无效,请使用 YYYY-MM-DD" |
| **2 分** | 无 Traceback 崩溃,有错误提示(可能是 argparse 默认或简单 Error |
| **1 分** | 有 1-2 个命令仍导致 Traceback或只打印默认错误 |
| **0 分** | 无效输入导致 Python Traceback 崩溃 |
### 用户体验2 分)
| 分数 | 标准 |
|------|------|
| **2 分** | --help 有使用示例,输出有格式化(表格/分隔线/emoji有成功/失败状态提示 |
| **1 分** | 基本可用,有 --help 帮助信息 |
| **0 分** | 难以使用,无帮助信息,输出混乱 |
---
## 🔧 代码质量评分5 分)
### 代码结构2 分)
| 分数 | 标准 |
|------|------|
| **2 分** | 结构清晰,有多个模块(如 storage.py, llm.py, main.py**包含 LLM 调用代码** |
| **1 分** | 有业务代码但都在一个文件,或**缺少 LLM 调用代码** |
| **0 分** | 模板代码未修改,只有 `print("🚧 项目待实现")` |
### 代码可读性2 分)
| 分数 | 标准 |
|------|------|
| **2 分** | 变量命名规范(如 diary_content关键位置有注释 |
| **1 分** | 变量名基本可理解,有部分注释 |
| **0 分** | 变量名无意义(如 a, b, x无注释 |
### 安全性1 分)
| 分数 | 标准 |
|------|------|
| **1 分** | 使用 `os.getenv()` 获取 API Key`.env.example` 文件 |
| **0 分** | API Key 硬编码在代码中(如 `api_key = "sk-xxx"` |
---
## 🎯 得分指南
### 满分项目特征25 分)
- ✅ REPORT.md 有真实的项目思考,技术决策有对比,与 AI 协作有具体例子
- ✅ CHANGELOG.md 有 3+ 版本,清晰记录迭代过程
- ✅ manifest.yaml 命令都能成功运行,输出有意义
- ✅ **LLM 功能明显提升产品价值**
- ✅ 错误处理完善,用户体验好
- ✅ 代码结构清晰,多模块分工,安全处理 API Key
### 及格项目特征15 分左右)
- ✅ 文档基本填写,有一定内容
- ✅ 核心功能可以运行
- ✅ **有 LLM 功能但可能不够完善**
- ⚠️ 错误处理一般
- ⚠️ 代码组织一般
### 不及格项目特征(<12
- ❌ 文档是模板占位符
- ❌ **没有 LLM 功能**(直接不满足必选要求)
- ❌ 功能无法运行或输出模板提示
- ❌ 代码是模板原样
---
## 常见扣分点
| 问题 | 影响 |
|-----|------|
| 文档是占位符(`[在此填写]`、`YYYY-MM-DD`、`XXX功能` | 对应评分项 0 分 |
| 没有 LLM 功能 | 功能分最高 5/12代码结构最高 1/2 |
| 命令输出"🚧 项目待实现" | 核心功能 0 分 |
| manifest.yaml 未修改(项目名是"你的项目名称" | 所有功能分 0 分 |
| API Key 硬编码 | 安全性 0 分 |
| 无效输入导致 Traceback | 错误处理减分 |
---
## 自检清单
提交前请确认:
- [ ] `manifest.yaml` 已修改,项目名称和描述是真实的
- [ ] 所有 demo 命令都能成功运行
- [ ] **至少有一个命令展示 LLM 功能**
- [ ] 错误处理命令不会导致程序崩溃
- [ ] `REPORT.md` 所有部分都已填写,无占位符
- [ ] `CHANGELOG.md` 有真实日期和具体内容
- [ ] API Key 使用环境变量,有 `.env.example` 文件
- [ ] 代码有合理的模块划分
---
> 💡 **提示**:评分系统使用 LLM 评估,它会仔细阅读你的文档和代码。真实、具体的内容会得到认可,模板和套话会被识别为未完成。

View File

@ -1,73 +0,0 @@
# 项目名称
一句话描述:这个项目做什么?
## 功能特性
- ✅ 功能 1描述
- ✅ 功能 2描述
- ✅ 功能 3LLM 功能描述
## 快速开始
### 环境要求
- Python 3.10+
- DeepSeek API Key
### 安装
```bash
pip install -r requirements.txt
```
### 配置
1. 复制 `.env.example``.env`
2. 填入你的 DeepSeek API Key
```bash
cp .env.example .env
# 编辑 .env 文件,填入 API Key
```
### 运行
```bash
# CLI 模式
python src/main.py --help
python src/main.py [命令] [参数]
# 或 Web 模式(如有)
# streamlit run app.py
```
## 使用示例
```bash
# 示例命令 1
python src/main.py example1
# 示例命令 2
python src/main.py example2
```
## 项目结构
```
project/
├── src/
│ ├── __init__.py
│ ├── main.py # 主入口
│ └── ... # 其他模块
├── data/ # 数据文件
├── output/ # 输出文件
├── manifest.yaml # 项目运行声明
├── requirements.txt # 依赖
└── README.md # 本文件
```
## 作者
[姓名] - [学号]

View File

@ -1,80 +0,0 @@
# 期末项目反思报告
## 1. 项目定位(为什么做这个?)
### 项目名称
[在此填写项目名称]
### 解决的问题
这个项目解决什么问题?谁会用?为什么值得做?
> [在此处回答]
### 为什么选择这个方向
你有其他选择,为什么选了这个?
> [在此处回答]
## 2. 技术决策(你是如何思考的?)
### 关键技术选型
| 决策点 | 你的选择 | 考虑过的替代方案 | 选择理由 |
|-------|---------|----------------|---------|
| 数据存储 | [例JSON] | [例SQLite, CSV] | [理由] |
| 用户界面 | [例CLI] | [例Streamlit] | [理由] |
| LLM 提供商 | [例DeepSeek] | [例OpenAI] | [理由] |
| ... | ... | ... | ... |
### 最难的技术决策
描述一个让你纠结的技术决策,以及最终如何选择的。
> [在此处回答]
## 3. 与 AI 协作
### 最有效的 Prompt
展示一个你觉得写得好的 Prompt
```
[你的 Prompt]
```
为什么这个 Prompt 有效?
> [在此处回答]
### AI 帮不了的地方
有什么是 AI 帮不了、必须你自己思考的?
> [在此处回答]
## 4. 迭代与成长
### 最大的挑战
描述你遇到的最大挑战,以及如何克服的。
- **挑战**[描述挑战]
- **尝试的解决方案**[你尝试了什么]
- **最终方案**[最后怎么解决的]
- **学到的经验**[从中学到了什么]
### 如果重来一次
如果让你重新做这个项目,你会有什么不同的做法?
> [在此处回答]
## 5. 自我评价
你觉得这个项目完成度如何?有什么遗憾?
> [在此处回答]

File diff suppressed because it is too large Load Diff

View File

@ -1,35 +0,0 @@
# manifest.yaml - 项目运行声明(必填)
# 评测系统将根据这个文件自动运行你的项目
project:
name: "你的项目名称"
description: "一句话描述项目功能"
# 运行命令(评测系统会依次执行这些命令)
commands:
# 主功能演示(必填,至少 3 个命令)
demo:
- command: "python src/main.py --help"
description: "显示帮助信息"
# TODO: 添加你的功能演示命令
# - command: "python src/main.py 参数"
# description: "演示功能描述"
# 错误处理演示(必填,至少 2 个命令)
error_handling:
- command: "python src/main.py invalid_command"
description: "测试无效命令处理"
# TODO: 添加更多错误处理测试
# - command: "python src/main.py --invalid-param"
# description: "测试无效参数处理"
# Web 界面(可选,如有 Streamlit
# web:
# command: "streamlit run app.py --server.headless true"
# port: 8501
# 需要的环境变量(评测时会注入)
env_vars:
- DEEPSEEK_API_KEY
# 如需其他 API Key在此列出

View File

@ -1,10 +0,0 @@
# 核心依赖
openai>=1.0.0
python-dotenv>=1.0.0
# 根据你的项目需要添加其他依赖
# requests>=2.31.0
# pandas>=2.0.0
# matplotlib>=3.7.0
# streamlit>=1.28.0

View File

@ -1,2 +0,0 @@
# 项目源代码包

54
src/data.py Normal file
View File

@ -0,0 +1,54 @@
"""电信客户流失数据集加载与清洗(最终可运行版)"""
import polars as pl
import os # 用于检查文件是否存在
def load_telco_data():
"""加载并清洗电信流失数据集,绝对路径+完整容错"""
# ========== 1. 正确的绝对路径(二选一即可) ==========
# 方式1双反斜杠推荐
data_path = "C:\\Users\\s1313\\Desktop\\telco_churn_analysis\\data\\WA_Fn-UseC_-Telco-Customer-Churn.csv"
# 方式2原始字符串注释掉方式1解开下面注释也可以
# data_path = r"C:\Users\s1313\Desktop\telco_churn_analysis\data\WA_Fn-UseC_-Telco-Customer-Churn.csv"
# ========== 2. 检查文件是否存在(关键) ==========
if not os.path.exists(data_path):
print(f"\n❌ 错误:文件不存在!")
print(f"👉 请检查路径是否正确:{data_path}")
print(f"👉 确认文件是否在这个位置,且文件名没有写错")
return None # 避免程序崩溃
# ========== 3. 读取并清洗数据 ==========
try:
df = pl.read_csv(data_path)
# 安全清洗TotalCharges字段
if df["TotalCharges"].dtype == pl.Utf8:
df = df.with_columns(
pl.col("TotalCharges")
.str.replace(" ", "0")
.cast(pl.Float64, strict=False)
.fill_null(0.0)
.alias("TotalCharges")
)
else:
df = df.with_columns(
pl.col("TotalCharges")
.fill_null(0.0)
.alias("TotalCharges")
)
# ========== 4. 输出成功结果 ==========
print("\n✅ 数据集加载并清洗完成!")
print(f"📊 数据规模:{df.shape[0]}× {df.shape[1]}")
print(f"📈 TotalCharges字段类型{df['TotalCharges'].dtype}")
print("🔍 前2行预览")
print(df.head(2))
return df
except Exception as e:
print(f"\n❌ 数据处理出错:{type(e).__name__}{e}")
return None
# 测试入口
if __name__ == "__main__":
load_telco_data()

0
src/features.py Normal file
View File

0
src/infer.py Normal file
View File

View File

@ -1,40 +1,19 @@
#!/usr/bin/env python3
"""
项目主入口
TODO: 实现你的项目功能
"""
import polars as pl
import argparse
import sys
from dotenv import load_dotenv
data_path = "C:/Users/s1313/Desktop/telco_churn_analysis/data/WA_Fn-UseC_-Telco-Customer-Churn.csv"
# 加载环境变量
load_dotenv()
def main():
"""主函数"""
parser = argparse.ArgumentParser(
description="你的项目描述",
formatter_class=argparse.RawDescriptionHelpFormatter,
epilog="""
示例:
python src/main.py --help 显示帮助
python src/main.py [命令] [参数] 执行功能
"""
)
try:
df = pl.read_csv(data_path)
# TODO: 添加你的命令行参数
# parser.add_argument("command", help="命令")
# parser.add_argument("--option", help="选项")
# 仅当TotalCharges是字符串类型时才处理
if df["TotalCharges"].dtype == pl.Utf8:
df = df.with_columns(
pl.col("TotalCharges").str.replace(" ", "0").cast(pl.Float64, strict=False)
)
args = parser.parse_args()
# TODO: 实现你的主逻辑
print("🚧 项目待实现")
print("请修改 src/main.py 实现你的功能")
if __name__ == "__main__":
main()
print("✅ 数据处理完成!")
print(f"TotalCharges类型{df['TotalCharges'].dtype}")
print("\n前2行预览")
print(df.head(2))
except Exception as e:
print(f"❌ 操作失败:{e}")

0
src/train.py Normal file
View File