每天 Shaarli
今天 - January 23, 2025
通过将翻译任务的提示词从“翻译”改为“用目标语言重写”,可以使大型语言模型(LLM)在翻译时更加注重意译,产生更自然流畅的翻译结果。
提示词示例:
- 给出中英文提示词示例:
- “请尊重原意,保持原有格式不变,用简体中文重写下面的内容:”
- "Please respect the original meaning, maintain the original format, and rewrite the following content in Simplified Chinese:"
请帮我创作一段高级感品牌文案,要求如下:
语言风格
使用哲学术语和高雅专业词汇(不涉及量子)
创造独特的专业术语和理论体系
保持神秘莫测的语气,使用优雅、淡然的表达方式
让人大部分能懂,但保留一定理解难度
内容结构
分为多个层次进行循序渐进的推理
内容要与受众生活产生共鸣,但不能过于直白
在文末预留思考空间
每段包含1-2个让人似懂非懂的专业词汇
适当引用并改编经典哲学家的话
视觉设计
制作精美的HTML卡片
使用黄金分割比例进行版面设计
配色以高级灰为主,搭配点睛亮色
字体选用细黑体,营造轻奢感
添加多个精致的SVG图案元素
设计简单的悬浮动效
在关键词处添加特殊样式
署名要求
署名"财猫大胡柚设计部"
创作原则
保持高级感与距离感
若读者表示看不懂,暗示这可能是他们的理解问题
整体风格要给人一种喝风屙烟、餐风饮露的品牌形象
Supermaven编程vscode扩展
用户使用域名邮箱注册了Supermaven账号,并创建了免费的团队订阅(14天有效期)。通过邀请其他邮箱账号加入团队,获得了5美元的对话积分。Supermaven提供多种对话模型,代码补全功能也很强大。用户可以利用小号邀请来续杯免费积分,用完后退出登录即可。该公司已被Cursor的母公司收购,用户担心未来可能出现类似Cursor的机器码识别限制。
DeepSeek 最新发布的 R1 模型通过纯强化学习(R1-Zero)和多阶段混合训练(R1)取得了突破。R1-Zero 完全跳过监督微调,仅通过自我探索和基于规则的奖励机制提升推理能力;R1 则引入少量人工标注数据进行微调,并加入语言一致性奖励,提升输出质量和稳定性。 这项研究表明,大模型可以通过自我博弈和强化学习实现自我进化,无需过度依赖人工数据,为通往通用人工智能(AGI)的道路指明了方向。