commit a9196c99ffb6bc94cdc097f075454ee2ea7db63d Author: zhelisi Date: Mon Jan 12 10:44:21 2026 +0800 Initial commit diff --git a/.env.example b/.env.example new file mode 100644 index 0000000..4381769 --- /dev/null +++ b/.env.example @@ -0,0 +1,6 @@ +# DeepSeek API Key +# 获取地址:https://platform.deepseek.com/ +DEEPSEEK_API_KEY=sk-your-api-key-here + +# 如果使用其他 API,在此添加 +# OTHER_API_KEY=your-key-here diff --git a/.gitea/workflows/autograde.yml b/.gitea/workflows/autograde.yml new file mode 100644 index 0000000..eeec1fe --- /dev/null +++ b/.gitea/workflows/autograde.yml @@ -0,0 +1,304 @@ +name: autograde-assignment-05-final-project + +on: + push: + branches: + - main + tags: + - 'submit' + - 'submit-*' + workflow_dispatch: + +permissions: + contents: read + pull-requests: write + +jobs: + check-trigger: + runs-on: docker + container: + image: alpine:latest + outputs: + should_run: ${{ steps.check.outputs.trigger }} + steps: + - name: Check commit message for trigger keyword + id: check + run: | + COMMIT_MSG="${{ github.event.head_commit.message || '' }}" + echo "Commit message: $COMMIT_MSG" + if echo "$COMMIT_MSG" | grep -q "完成作业"; then + echo "trigger=true" >> $GITHUB_OUTPUT + echo "✅ Commit contains \"完成作业\",即将执行评分" + else + echo "trigger=false" >> $GITHUB_OUTPUT + echo "⛔ 只有包含"完成作业"的提交才会执行自动评分" >&2 + fi + + grade: + needs: check-trigger + if: needs.check-trigger.outputs.should_run == 'true' + runs-on: docker + container: + image: python:3.11 + options: --user root + timeout-minutes: 30 + + steps: + - name: Configure APT mirror (Aliyun) + run: | + set -e + for f in /etc/apt/sources.list /etc/apt/sources.list.d/*.list /etc/apt/sources.list.d/*.sources; do + [ -f "$f" ] || continue + sed -i -E 's|https?://deb.debian.org|http://mirrors.aliyun.com|g' "$f" || true + sed -i -E 's|https?://security.debian.org|http://mirrors.aliyun.com/debian-security|g' "$f" || true + sed -i -E 's|https?://archive.ubuntu.com|http://mirrors.aliyun.com|g' "$f" || true + sed -i -E 's|https?://ports.ubuntu.com|http://mirrors.aliyun.com|g' "$f" || true + done + apt-get -o Acquire::Check-Valid-Until=false update -y + DEBIAN_FRONTEND=noninteractive apt-get install -y --no-install-recommends \ + git ca-certificates python3-pip rsync \ + libcairo2 libpango-1.0-0 libpangocairo-1.0-0 libgdk-pixbuf-2.0-0 libffi-dev shared-mime-info \ + fontconfig fonts-noto-cjk fonts-wqy-microhei + fc-cache -f -v >/dev/null 2>&1 || true + rm -rf /var/lib/apt/lists/* + + - name: Checkout code + env: + GITHUB_TOKEN: ${{ github.token }} + run: | + git config --global --add safe.directory ${{ github.workspace }} + git init + REPO_URL="${{ github.server_url }}/${{ github.repository }}.git" + AUTH_URL=$(echo "$REPO_URL" | sed "s|://|://${GITHUB_TOKEN}@|") + git remote add origin "$AUTH_URL" + git fetch --depth=1 origin ${{ github.sha }} + git checkout ${{ github.sha }} + + - name: Fix permissions + run: chown -R $(whoami):$(whoami) ${{ github.workspace }} || true + + - name: Fetch grading scripts + working-directory: ${{ github.workspace }} + env: + EXTERNAL_GITEA_HOST: ${{ secrets.EXTERNAL_GITEA_HOST }} + run: | + set -e + TESTS_USERNAME="${RUNNER_TESTS_USERNAME:-}" + TESTS_TOKEN="${RUNNER_TESTS_TOKEN:-}" + if [ -z "$TESTS_TOKEN" ] || [ -z "$TESTS_USERNAME" ]; then + echo "❌ RUNNER_TESTS_USERNAME / RUNNER_TESTS_TOKEN not set!" + exit 1 + fi + + # Resolve host + if [ -n "$EXTERNAL_GITEA_HOST" ]; then + HOST="$EXTERNAL_GITEA_HOST" + elif [ -n "$GITEA_ROOT_URL" ]; then + HOST=$(echo "$GITEA_ROOT_URL" | sed 's|https\?://||' | sed 's|/$||') + else + HOST=$(echo "${{ github.server_url }}" | sed 's|https\?://||' | cut -d'/' -f1) + fi + + ORG=$(echo "${{ github.repository }}" | cut -d'/' -f1) + REPO_NAME=$(echo "${{ github.repository }}" | cut -d'/' -f2) + + if echo "$REPO_NAME" | grep -q -- '-stu_'; then + ASSIGNMENT_ID=$(echo "$REPO_NAME" | sed 's/-stu_.*//') + elif echo "$REPO_NAME" | grep -q -- '-template'; then + ASSIGNMENT_ID=$(echo "$REPO_NAME" | sed 's/-template.*//') + else + ASSIGNMENT_ID="assignment-05-final-project" + fi + + echo "📥 Fetching grading scripts from ${ORG}/${ASSIGNMENT_ID}-tests..." + AUTH_URL="http://${TESTS_USERNAME}:${TESTS_TOKEN}@${HOST}/${ORG}/${ASSIGNMENT_ID}-tests.git" + git -c http.sslVerify=false clone --depth=1 "$AUTH_URL" _priv_tests + + rm -rf .autograde + mkdir -p .autograde + cp _priv_tests/autograde/*.py .autograde/ + cp _priv_tests/autograde/*.sh .autograde/ 2>/dev/null || true + + # Copy LLM rubrics + if [ -d "_priv_tests/llm" ]; then + mkdir -p .llm_rubrics + cp _priv_tests/llm/*.json .llm_rubrics/ 2>/dev/null || true + fi + + rm -rf _priv_tests + + - name: Install Python dependencies + run: | + pip config set global.index-url https://mirrors.aliyun.com/pypi/simple + if [ -f requirements.txt ]; then + pip install --no-cache-dir -r requirements.txt + fi + # 安装评分脚本依赖与 PDF 生成依赖 + pip install --no-cache-dir requests python-dotenv pyyaml markdown weasyprint + + - name: Validate manifest.yaml + run: | + if [ ! -f manifest.yaml ]; then + echo "❌ manifest.yaml not found!" + echo '{"error": "missing_manifest"}' > run_results.json + else + echo "✅ manifest.yaml found" + fi + + - name: Run project commands + working-directory: ${{ github.workspace }} + run: | + if [ -f manifest.yaml ]; then + python ./.autograde/run_project.py . --out run_results.json --timeout 60 + fi + + - name: Grade documentation (LLM) + run: | + python ./.autograde/llm_evaluate.py \ + --run-results run_results.json \ + --rubric .llm_rubrics/rubric_documentation.json \ + --dimension documentation \ + --out doc_grade.json + + - name: Grade functionality (LLM) + run: | + python ./.autograde/llm_evaluate.py \ + --run-results run_results.json \ + --rubric .llm_rubrics/rubric_functionality.json \ + --dimension functionality \ + --out func_grade.json + + - name: Grade code quality (LLM) + run: | + python ./.autograde/llm_evaluate.py \ + --run-results run_results.json \ + --rubric .llm_rubrics/rubric_code_quality.json \ + --dimension code_quality \ + --out code_grade.json + + - name: Aggregate grades + run: | + python ./.autograde/aggregate_grade.py \ + --documentation doc_grade.json \ + --functionality func_grade.json \ + --code-quality code_grade.json \ + --out final_grade.json \ + --summary final_summary.md + + - name: Generate PDF report + working-directory: ${{ github.workspace }} + env: + REPO: ${{ github.repository }} + COMMIT_SHA: ${{ github.sha }} + run: | + if [ -f final_grade.json ]; then + python ./.autograde/generate_pdf_report.py \ + --run-results run_results.json \ + --grade final_grade.json \ + --readme README.md \ + --report REPORT.md \ + --changelog CHANGELOG.md \ + --out grade_report.pdf \ + --commit-sha "$COMMIT_SHA" + fi + + - name: Upload report to student repo + if: env.RUNNER_METADATA_TOKEN != '' + working-directory: ${{ github.workspace }} + env: + TOKEN: ${{ env.RUNNER_METADATA_TOKEN }} + REPO: ${{ github.repository }} + SERVER_URL: ${{ github.server_url }} + COMMIT_SHA: ${{ github.sha }} + run: | + REPORT_FILE="" + if [ -f grade_report.pdf ]; then + REPORT_FILE="grade_report.pdf" + elif [ -f grade_report.html ]; then + REPORT_FILE="grade_report.html" + elif [ -f grade_report.md ]; then + REPORT_FILE="grade_report.md" + fi + + if [ -n "$REPORT_FILE" ]; then + API_URL="http://gitea:3000/api/v1" + SHORT_SHA=$(echo "$COMMIT_SHA" | cut -c1-7) + DEST_PATH="reports/grade_report_${SHORT_SHA}.${REPORT_FILE##*.}" + + CONTENT=$(base64 -w 0 "$REPORT_FILE") + printf '{"message": "Add grade report for %s", "content": "%s"}\n' "$SHORT_SHA" "$CONTENT" > /tmp/upload_request.json + + RESULT=$(curl -s -X POST -H "Authorization: token $TOKEN" \ + -H "Content-Type: application/json" \ + "$API_URL/repos/$REPO/contents/$DEST_PATH" \ + -d @/tmp/upload_request.json) + + if echo "$RESULT" | grep -q '"content"'; then + echo "✅ Report uploaded to $DEST_PATH" + else + echo "POST failed, trying PUT with SHA..." + SHA=$(curl -s -H "Authorization: token $TOKEN" \ + "$API_URL/repos/$REPO/contents/$DEST_PATH" \ + | python3 -c "import sys,json; d=json.load(sys.stdin); print(d.get('sha','') if isinstance(d,dict) and 'sha' in d else '')" 2>/dev/null || echo "") + + if [ -n "$SHA" ]; then + printf '{"message": "Update grade report for %s", "content": "%s", "sha": "%s"}\n' "$SHORT_SHA" "$CONTENT" "$SHA" > /tmp/upload_request.json + RESULT=$(curl -s -X PUT -H "Authorization: token $TOKEN" \ + -H "Content-Type: application/json" \ + "$API_URL/repos/$REPO/contents/$DEST_PATH" \ + -d @/tmp/upload_request.json) + if echo "$RESULT" | grep -q '"content"'; then + echo "✅ Report updated at $DEST_PATH" + else + echo "⚠️ Failed to update report: $RESULT" + fi + else + echo "⚠️ Could not get file SHA, upload failed" + fi + fi + rm -f /tmp/upload_request.json + fi + + - name: Create metadata + working-directory: ${{ github.workspace }} + env: + REPO: ${{ github.repository }} + LANGUAGE: python + run: | + if [ -f final_grade.json ]; then + export GRADE_TYPE=final + export GRADE_FILE=final_grade.json + if [ -f .autograde/create_minimal_metadata.py ]; then + python ./.autograde/create_minimal_metadata.py > metadata.json || echo "{}" > metadata.json + else + echo "{}" > metadata.json + fi + fi + + - name: Upload metadata + if: env.RUNNER_METADATA_TOKEN != '' + working-directory: ${{ github.workspace }} + env: + METADATA_REPO: ${{ github.repository_owner }}/course-metadata + METADATA_TOKEN: ${{ env.RUNNER_METADATA_TOKEN }} + METADATA_BRANCH: ${{ env.RUNNER_METADATA_BRANCH }} + STUDENT_REPO: ${{ github.repository }} + RUN_ID: ${{ github.run_id }} + COMMIT_SHA: ${{ github.sha }} + SERVER_URL: ${{ github.server_url }} + run: | + if [ -f metadata.json ] && [ -f .autograde/upload_metadata.py ]; then + python ./.autograde/upload_metadata.py \ + --metadata-file metadata.json \ + --metadata-repo "${METADATA_REPO}" \ + --branch "${METADATA_BRANCH:-main}" \ + --student-repo "${STUDENT_REPO}" \ + --run-id "${RUN_ID}" \ + --commit-sha "${COMMIT_SHA}" \ + --workflow grade \ + --server-url "${SERVER_URL}" \ + --external-host "${EXTERNAL_GITEA_HOST}" + else + echo "⚠️ metadata.json or upload_metadata.py not found, skipping upload" + fi + diff --git a/CHANGELOG.md b/CHANGELOG.md new file mode 100644 index 0000000..4f14f18 --- /dev/null +++ b/CHANGELOG.md @@ -0,0 +1,48 @@ +# 版本记录 + +## v1.0.0 (YYYY-MM-DD) - 最终提交版本 + +### 新增 + +- [功能] 完成 XXX 功能 +- [功能] 添加 XXX 特性 + +### 修复 + +- [Bug] 修复 XXX 问题 + - 原因:描述问题原因 + - 修改:描述如何修复 + +### 改进 + +- [优化] 改进了 XXX 的性能 +- [重构] 重构了 XXX 模块,提高可读性 + +--- + +## v0.2.0 (YYYY-MM-DD) - 功能完善 + +### 新增 + +- 添加了 XXX 功能 + +### 修复 + +- 修复了 XXX 边界情况 +- 修复了 XXX 错误处理 + +--- + +## v0.1.0 (YYYY-MM-DD) - AI 初版 + +### 新增 + +- 基本功能实现 +- 初始代码框架由 AI 生成 + +### 已知问题 + +- XXX 边界情况未处理 +- XXX 错误处理不完善 +- XXX 功能待实现 + diff --git a/GRADING_CRITERIA.md b/GRADING_CRITERIA.md new file mode 100644 index 0000000..052aef7 --- /dev/null +++ b/GRADING_CRITERIA.md @@ -0,0 +1,197 @@ +# 期末项目评分标准 + +> 💯 **总分**:25 分 +> 本文档详细说明评分系统如何评估你的项目,请仔细阅读。 + +--- + +## 总览 + +| 评估维度 | 分值 | 评估内容 | +|---------|------|---------| +| 📄 文档质量 | **8 分** | REPORT.md (5分) + CHANGELOG.md (3分) | +| ⚡ 功能表现 | **12 分** | 运行 manifest.yaml 中的命令,评估输出 | +| 🔧 代码质量 | **5 分** | 评估代码结构、可读性、安全性 | + +--- + +## ⚠️ 必选功能(重要!) + +以下 5 项功能是**必选要求**,缺少任何一项都会严重影响得分: + +| 必选功能 | 说明 | 缺失后果 | +|---------|------|---------| +| **LLM 集成** | 必须调用 DeepSeek/OpenAI API | ❌ 功能分最高 5/12,代码结构最高 1/2 | +| 外部数据交互 | 文件读写或其他 API 调用 | 影响核心功能评分 | +| 数据处理逻辑 | 有实质性数据操作,不只是透传 | 影响核心功能评分 | +| 用户交互 | CLI (argparse) 或 Web (Streamlit) | 影响用户体验评分 | +| 错误处理 | 无效输入不会导致程序崩溃 | 影响错误处理评分 | + +> 🚨 **LLM 集成是最重要的必选项!** 没有 LLM 功能的项目将被视为不符合基本要求。 + +--- + +## 📄 文档质量评分(8 分) + +### REPORT.md 反思报告(5 分) + +| 评分项 | 分值 | 满分标准 | 零分情况 | +|-------|------|---------|---------| +| **项目定位** | 1 分 | 清楚说明解决什么问题、目标用户、为什么值得做 | 只说"完成作业"或占位符 `[在此填写]` | +| **技术决策** | 2 分 | 有技术选型对比表、选择理由、**有效的 Prompt 示例**、AI 帮不了的思考 | 模板 `[例:JSON]` 未替换,或"与 AI 协作"部分空白 | +| **迭代成长** | 1 分 | 描述真实遇到的挑战、尝试的方案、学到的经验 | 空洞的占位符或流水账 | +| **自我反思** | 1 分 | 诚实评价项目优缺点,有具体的遗憾点 | 套话"收获很大"或空白 | + +#### 技术决策详细说明(2分项) + +这一项评估两部分内容: + +**1. 技术选型(1分)** +- 填写技术选型表格(数据存储、用户界面、LLM提供商等) +- 说明考虑过的替代方案和选择理由 +- 描述最难的技术决策 + +**2. 与 AI 协作(1分)** +- 展示一个你写得好的 Prompt 示例 +- 解释为什么这个 Prompt 有效 +- 说明 AI 帮不了、必须你自己思考的地方 + +### CHANGELOG.md 版本记录(3 分) + +| 分数 | 标准 | +|------|------| +| **3 分** | 3+ 个版本,每版有实质变化,日期真实(如 2024-12-06),详细描述改动原因 | +| **2 分** | 2 个版本,能看出迭代过程 | +| **1 分** | 1 个版本或记录过于简略 | +| **0 分** | 无记录,或日期是 `YYYY-MM-DD`、内容是 `XXX功能` 等占位符 | + +--- + +## ⚡ 功能表现评分(12 分) + +评测系统会运行你在 `manifest.yaml` 中声明的命令,根据输出评分。 + +### 核心功能(4 分) + +| 分数 | 标准 | +|------|------| +| **4 分** | demo 命令展示 5+ 个功能,功能间有数据流转(添加→查询→分析→导出),LLM 是核心流程,输出有格式化 | +| **3 分** | 功能完整,**包含有效的 LLM 集成**,输出正确清晰 | +| **2 分** | 主要功能可用,但 **LLM 功能缺失或无效**(这是缺少 LLM 时的最高分!) | +| **1 分** | 部分功能可用,有明显 bug | +| **0 分** | 输出模板提示"🚧 项目待实现",或只有 --help | + +### LLM 集成(3 分) + +> ⚠️ **这是必选功能!** 此项为 0 分意味着项目不符合基本要求。 + +| 分数 | 标准 | +|------|------| +| **3 分** | LLM 基于用户数据做个性化分析,输出 50 字以上有实质内容,去掉 LLM 产品价值显著降低 | +| **2 分** | LLM 调用成功,返回有意义的内容,与用户数据相关 | +| **1 分** | LLM 返回通用模板内容,或输出过短(<20字),与用户数据无关 | +| **0 分** | 无 LLM 调用,或完全失败 ❌ | + +### 错误处理(3 分) + +| 分数 | 标准 | +|------|------| +| **3 分** | 全部无 Traceback,有自定义友好提示(如"错误:日期格式无效,请使用 YYYY-MM-DD") | +| **2 分** | 无 Traceback 崩溃,有错误提示(可能是 argparse 默认或简单 Error) | +| **1 分** | 有 1-2 个命令仍导致 Traceback,或只打印默认错误 | +| **0 分** | 无效输入导致 Python Traceback 崩溃 | + +### 用户体验(2 分) + +| 分数 | 标准 | +|------|------| +| **2 分** | --help 有使用示例,输出有格式化(表格/分隔线/emoji),有成功/失败状态提示 | +| **1 分** | 基本可用,有 --help 帮助信息 | +| **0 分** | 难以使用,无帮助信息,输出混乱 | + +--- + +## 🔧 代码质量评分(5 分) + +### 代码结构(2 分) + +| 分数 | 标准 | +|------|------| +| **2 分** | 结构清晰,有多个模块(如 storage.py, llm.py, main.py),**包含 LLM 调用代码** | +| **1 分** | 有业务代码但都在一个文件,或**缺少 LLM 调用代码** | +| **0 分** | 模板代码未修改,只有 `print("🚧 项目待实现")` | + +### 代码可读性(2 分) + +| 分数 | 标准 | +|------|------| +| **2 分** | 变量命名规范(如 diary_content),关键位置有注释 | +| **1 分** | 变量名基本可理解,有部分注释 | +| **0 分** | 变量名无意义(如 a, b, x),无注释 | + +### 安全性(1 分) + +| 分数 | 标准 | +|------|------| +| **1 分** | 使用 `os.getenv()` 获取 API Key,有 `.env.example` 文件 | +| **0 分** | API Key 硬编码在代码中(如 `api_key = "sk-xxx"`) | + +--- + +## 🎯 得分指南 + +### 满分项目特征(25 分) + +- ✅ REPORT.md 有真实的项目思考,技术决策有对比,与 AI 协作有具体例子 +- ✅ CHANGELOG.md 有 3+ 版本,清晰记录迭代过程 +- ✅ manifest.yaml 命令都能成功运行,输出有意义 +- ✅ **LLM 功能明显提升产品价值** +- ✅ 错误处理完善,用户体验好 +- ✅ 代码结构清晰,多模块分工,安全处理 API Key + +### 及格项目特征(15 分左右) + +- ✅ 文档基本填写,有一定内容 +- ✅ 核心功能可以运行 +- ✅ **有 LLM 功能但可能不够完善** +- ⚠️ 错误处理一般 +- ⚠️ 代码组织一般 + +### 不及格项目特征(<12 分) + +- ❌ 文档是模板占位符 +- ❌ **没有 LLM 功能**(直接不满足必选要求) +- ❌ 功能无法运行或输出模板提示 +- ❌ 代码是模板原样 + +--- + +## 常见扣分点 + +| 问题 | 影响 | +|-----|------| +| 文档是占位符(`[在此填写]`、`YYYY-MM-DD`、`XXX功能`) | 对应评分项 0 分 | +| 没有 LLM 功能 | 功能分最高 5/12,代码结构最高 1/2 | +| 命令输出"🚧 项目待实现" | 核心功能 0 分 | +| manifest.yaml 未修改(项目名是"你的项目名称") | 所有功能分 0 分 | +| API Key 硬编码 | 安全性 0 分 | +| 无效输入导致 Traceback | 错误处理减分 | + +--- + +## 自检清单 + +提交前请确认: + +- [ ] `manifest.yaml` 已修改,项目名称和描述是真实的 +- [ ] 所有 demo 命令都能成功运行 +- [ ] **至少有一个命令展示 LLM 功能** +- [ ] 错误处理命令不会导致程序崩溃 +- [ ] `REPORT.md` 所有部分都已填写,无占位符 +- [ ] `CHANGELOG.md` 有真实日期和具体内容 +- [ ] API Key 使用环境变量,有 `.env.example` 文件 +- [ ] 代码有合理的模块划分 + +--- + +> 💡 **提示**:评分系统使用 LLM 评估,它会仔细阅读你的文档和代码。真实、具体的内容会得到认可,模板和套话会被识别为未完成。 diff --git a/README.md b/README.md new file mode 100644 index 0000000..53aeb72 --- /dev/null +++ b/README.md @@ -0,0 +1,73 @@ +# 项目名称 + +一句话描述:这个项目做什么? + +## 功能特性 + +- ✅ 功能 1:描述 +- ✅ 功能 2:描述 +- ✅ 功能 3:LLM 功能描述 + +## 快速开始 + +### 环境要求 + +- Python 3.10+ +- DeepSeek API Key + +### 安装 + +```bash +pip install -r requirements.txt +``` + +### 配置 + +1. 复制 `.env.example` 为 `.env` +2. 填入你的 DeepSeek API Key + +```bash +cp .env.example .env +# 编辑 .env 文件,填入 API Key +``` + +### 运行 + +```bash +# CLI 模式 +python src/main.py --help +python src/main.py [命令] [参数] + +# 或 Web 模式(如有) +# streamlit run app.py +``` + +## 使用示例 + +```bash +# 示例命令 1 +python src/main.py example1 + +# 示例命令 2 +python src/main.py example2 +``` + +## 项目结构 + +``` +project/ +├── src/ +│ ├── __init__.py +│ ├── main.py # 主入口 +│ └── ... # 其他模块 +├── data/ # 数据文件 +├── output/ # 输出文件 +├── manifest.yaml # 项目运行声明 +├── requirements.txt # 依赖 +└── README.md # 本文件 +``` + +## 作者 + +[姓名] - [学号] + diff --git a/REPORT.md b/REPORT.md new file mode 100644 index 0000000..f30ec2f --- /dev/null +++ b/REPORT.md @@ -0,0 +1,80 @@ +# 期末项目反思报告 + +## 1. 项目定位(为什么做这个?) + +### 项目名称 + +[在此填写项目名称] + +### 解决的问题 + +这个项目解决什么问题?谁会用?为什么值得做? + +> [在此处回答] + +### 为什么选择这个方向 + +你有其他选择,为什么选了这个? + +> [在此处回答] + +## 2. 技术决策(你是如何思考的?) + +### 关键技术选型 + +| 决策点 | 你的选择 | 考虑过的替代方案 | 选择理由 | +|-------|---------|----------------|---------| +| 数据存储 | [例:JSON] | [例:SQLite, CSV] | [理由] | +| 用户界面 | [例:CLI] | [例:Streamlit] | [理由] | +| LLM 提供商 | [例:DeepSeek] | [例:OpenAI] | [理由] | +| ... | ... | ... | ... | + +### 最难的技术决策 + +描述一个让你纠结的技术决策,以及最终如何选择的。 + +> [在此处回答] + +## 3. 与 AI 协作 + +### 最有效的 Prompt + +展示一个你觉得写得好的 Prompt: + +``` +[你的 Prompt] +``` + +为什么这个 Prompt 有效? + +> [在此处回答] + +### AI 帮不了的地方 + +有什么是 AI 帮不了、必须你自己思考的? + +> [在此处回答] + +## 4. 迭代与成长 + +### 最大的挑战 + +描述你遇到的最大挑战,以及如何克服的。 + +- **挑战**:[描述挑战] +- **尝试的解决方案**:[你尝试了什么] +- **最终方案**:[最后怎么解决的] +- **学到的经验**:[从中学到了什么] + +### 如果重来一次 + +如果让你重新做这个项目,你会有什么不同的做法? + +> [在此处回答] + +## 5. 自我评价 + +你觉得这个项目完成度如何?有什么遗憾? + +> [在此处回答] + diff --git a/manifest.yaml b/manifest.yaml new file mode 100644 index 0000000..7824ad0 --- /dev/null +++ b/manifest.yaml @@ -0,0 +1,35 @@ +# manifest.yaml - 项目运行声明(必填) +# 评测系统将根据这个文件自动运行你的项目 + +project: + name: "你的项目名称" + description: "一句话描述项目功能" + +# 运行命令(评测系统会依次执行这些命令) +commands: + # 主功能演示(必填,至少 3 个命令) + demo: + - command: "python src/main.py --help" + description: "显示帮助信息" + # TODO: 添加你的功能演示命令 + # - command: "python src/main.py 参数" + # description: "演示功能描述" + + # 错误处理演示(必填,至少 2 个命令) + error_handling: + - command: "python src/main.py invalid_command" + description: "测试无效命令处理" + # TODO: 添加更多错误处理测试 + # - command: "python src/main.py --invalid-param" + # description: "测试无效参数处理" + + # Web 界面(可选,如有 Streamlit) + # web: + # command: "streamlit run app.py --server.headless true" + # port: 8501 + +# 需要的环境变量(评测时会注入) +env_vars: + - DEEPSEEK_API_KEY + # 如需其他 API Key,在此列出 + diff --git a/requirements.txt b/requirements.txt new file mode 100644 index 0000000..c8a69be --- /dev/null +++ b/requirements.txt @@ -0,0 +1,10 @@ +# 核心依赖 +openai>=1.0.0 +python-dotenv>=1.0.0 + +# 根据你的项目需要添加其他依赖 +# requests>=2.31.0 +# pandas>=2.0.0 +# matplotlib>=3.7.0 +# streamlit>=1.28.0 + diff --git a/src/__init__.py b/src/__init__.py new file mode 100644 index 0000000..bd414e6 --- /dev/null +++ b/src/__init__.py @@ -0,0 +1,2 @@ +# 项目源代码包 + diff --git a/src/main.py b/src/main.py new file mode 100644 index 0000000..70ffb53 --- /dev/null +++ b/src/main.py @@ -0,0 +1,40 @@ +#!/usr/bin/env python3 +""" +项目主入口 +TODO: 实现你的项目功能 +""" + +import argparse +import sys +from dotenv import load_dotenv + +# 加载环境变量 +load_dotenv() + + +def main(): + """主函数""" + parser = argparse.ArgumentParser( + description="你的项目描述", + formatter_class=argparse.RawDescriptionHelpFormatter, + epilog=""" +示例: + python src/main.py --help 显示帮助 + python src/main.py [命令] [参数] 执行功能 + """ + ) + + # TODO: 添加你的命令行参数 + # parser.add_argument("command", help="命令") + # parser.add_argument("--option", help="选项") + + args = parser.parse_args() + + # TODO: 实现你的主逻辑 + print("🚧 项目待实现") + print("请修改 src/main.py 实现你的功能") + + +if __name__ == "__main__": + main() +