From 33cb5fc00a3a165691b000882afe37077512e0a0 Mon Sep 17 00:00:00 2001 From: "github-actions[bot]" Date: Fri, 2 Aug 2024 15:04:07 +0100 Subject: [PATCH] Auto Build at 2024-08-02 15:04 --- docs/36kr-ai.log | 22 ++++++++++++++++++++++ docs/36kr-ai.xml | 4 +--- docs/36kr.log | 12 ++++++++++++ docs/appinn.log | 8 ++++++++ docs/brett-terpstra.log | 32 ++++++++++++++++++++++++++++++++ docs/byte-tank.log | 6 ++++++ docs/index.html | 4 ++-- docs/ness-labs.log | 6 ++++++ docs/paul-graham.log | 6 ++++++ docs/robb-knight.log | 6 ++++++ docs/sspai.log | 12 ++++++++++++ docs/sspai.xml | 22 ++++++++++++++++++++++ docs/steph-ango.log | 6 ++++++ 13 files changed, 141 insertions(+), 5 deletions(-) diff --git a/docs/36kr-ai.log b/docs/36kr-ai.log index 5c4b944860f..28042a22083 100644 --- a/docs/36kr-ai.log +++ b/docs/36kr-ai.log @@ -71097,3 +71097,25 @@ Filter: [苹果AI真来了,外媒体验iOS 18.1首个测试版,Siri“变身 Filter: [单季度投入近200亿美元,同比大增77%,微软们患上“AI焦虑症”](https://www.36kr.com/p/2887494563322761) append_entries: 2 Finish: 2024-08-02 12:06:15.950999 +------------------------------------------------------ +Started: 2024-08-02 14:04:05.096217 +Existing_entries: 839 +Fetching from https://rsshub.app/36kr/motif/327686782977 +Filter: [售价713元、挂在脖子上的「AI朋友」,21岁少年不读哈佛去创业,投身AI硬件](https://www.36kr.com/p/2888859769510793) +Filter: [AI这就又回到“雕花”时代了?](https://www.36kr.com/p/2888759186823816) +Filter: [AI进内娱,群众不答应?](https://www.36kr.com/p/2888694710377089) +Filter: [Nature:谷歌AI研究引用量登全球榜首,中国企业表现亮眼](https://www.36kr.com/p/2888609474419328) +Filter: [全员离开老东家,Stable Diffusion一作带团创业,出手即击败MJ v6、SD3,还开源](https://www.36kr.com/p/2888528486390664) +Filter: [传马斯克旗下xAI收购Character.AI:人工智能领域并购争夺赛持续升温](https://www.36kr.com/p/2887553764891269) +Filter: [豆包vs可灵,抖快AI之争背后的产品路径](https://www.36kr.com/p/2887576454503297) +Filter: [最强开源文生图模型一夜易主,SD原班人马打造,要发SOTA视频生成模型](https://www.36kr.com/p/2888454156540803) +Filter: [ARM:指引失温,AI 信仰遇冷](https://www.36kr.com/p/2888317567769220) +Filter: [“AI训练师”培训,盯上小城市](https://www.36kr.com/p/2888279882488452) +Filter: [“老板给了我工作,为啥还要给我钱啊?”:AI打碎打工人的饭碗?可能会更复杂](https://www.36kr.com/p/2887476788534146) +Filter: [AI手机,苹果摸着安卓过河?](https://www.36kr.com/p/2887502198299265) +Filter: [Vanta获红杉、高盛参投的1.5亿美元C轮融资,用AI重塑企业合规行业](https://www.36kr.com/p/2887512733080454) +Filter: [微软“爆雷”、AMD暴富,做AI真的不如“卖铲子”?](https://www.36kr.com/p/2887517547928196) +Filter: [苹果AI真来了,外媒体验iOS 18.1首个测试版,Siri“变身”首秀](https://www.36kr.com/p/2887476887510148) +Filter: [单季度投入近200亿美元,同比大增77%,微软们患上“AI焦虑症”](https://www.36kr.com/p/2887494563322761) +append_entries: 0 +Finish: 2024-08-02 14:04:05.354245 diff --git a/docs/36kr-ai.xml b/docs/36kr-ai.xml index f44deeb74ca..f1d9bdbdf59 100644 --- a/docs/36kr-ai.xml +++ b/docs/36kr-ai.xml @@ -4,6 +4,7 @@ 36氪 - 人工智能·AI https://www.36kr.com/motif/327686782977 + 起猛了,GPT-4o被谷歌新模型击败,ChatGPT官号:大家深吸一口气 https://www.36kr.com/p/2888545898109577 @@ -13,7 +14,6 @@

起猛了,GPT-4o被谷歌新模型超越了!

历时一周,超1,2000人匿名投票,Gemini 1.5 Pro(0801)代表谷歌首次夺得lmsys竞技场第一。(中文任务也第一)

而且这次还是双冠王,除了总榜(唯一分数上1300),在视觉排行榜上也是第一。

Gemini团队的关键人物Simon Tokumine发文庆祝称:

(这一新模型)是我们制作过的最强大、最聪明的Gemini。

一位Reddit用户也称该模型“非常好”,并表示希望其功能不会被缩减。

更多网友兴奋表示,OpenAI终于受到挑战,要发布新版本来反击了!

ChatGPT官方账号也出来暗示着什么。

一片热闹之际,谷歌AI Studio产品负责人宣布该模型进入免费测试阶段

可在AI studio免费使用

网友:谷歌终于来了!

严格来说,Gemini 1.5 Pro(0801)其实不算新模型。

实验性版本建立在谷歌2月发布的Gemini 1.5 Pro基础之上,后来1.5系列将上下文窗口扩展到了200万。

随着模型更新,这命名也是越来越长了,也引起人们一片吐槽。

这不,一位OpenAI员工祝贺之余不忘阴阳怪气一把:

当然了,虽然名字难记,但Gemini 1.5 Pro(0801)这次在竞技场官方评测中表现亮眼。

总体胜率热图显示,它比GPT-4o胜出54%,比Claude 3.5 Sonnet胜出59%。

多语言能力基准测试中,它在中文、日语、德语、俄语均排名第一。

但是,在Coding、Hard Prompt Arena中,它还是打不过Claude 3.5 Sonnet、GPT-4o、Llama 405B等对手。

这一点也遭到网友诟病,转译过来就是:

编码才是最重要的,但它在这上面表现不佳。

不过也有人出来安利Gemini 1.5 Pro(0801)的图像和PDF提取功能

DAIR.AI联合创始人Elvis亲自在油管做了全套测试,并总结道:

视觉能力非常接近GPT-4o

以及,有人拿Gemini 1.5 Pro(0801)来解决Claude 3.5 Sonet之前回答不好的问题。

结果一看,它不仅表现更好,同时也干掉了自家小伙伴Gemini 1.5 Flash。

不过嘛,一些经典常识测试它还是搞不定,比如“写十个以苹果结尾的句子”。

One More Thing

与此同时,谷歌Gemma 2系列迎来了一个新的20亿参数模型

Gemma 2(2B)开箱即用,可以在Google Colab的免费T4 GPU上运行。

在竞技场排行榜上,它超过了所有GPT-3.5模型,甚至超越了Mixtral-8x7b。

面对谷歌最新取得的一系列新排名,竞技场榜单权威性再次受到大家质疑。

Nous Research联合创始人Teknium(微调后训练领域知名玩家)发文提醒:

虽然Gemma 2(2B)在竞技场得分高于GPT-3.5 Turbo,但它在MMLU上远低于后者。如果人们使用竞技场排名作为模型性能的唯一指标,这种差异就会令人担忧。

Abacus.AI首席执行官Bindu Reddy更是直接呼吁:

请立即停止使用这个人类评估排行榜!Claude 3.5 Sonnet比GPT-4o-mini好得多。类似的Gemini/Gemma在这个排行榜上的得分都不应该这么高。

那么,你认为这种人类匿名投票的方式还靠谱吗?(欢迎评论区讨论)

参考链接:

[1]https://x.com/lmsysorg/status/1819048821294547441

[2]https://x.com/JeffDean/status/1819121162578022849

[3]https://x.com/stevenheidel/status/1819080995062403484

[4]https://x.com/rohanpaul_ai/status/1818697538360295897

[5]https://x.com/bindureddy/status/1818738366466412601

[6]https://x.com/infwinston/status/1818718423700103526

本文来自微信公众号“量子位”(ID:QbitAI),作者:一水,36氪经授权发布。

]]> Fri, 02 Aug 2024 07:38:48 GMT -Fri, 02 Aug 2024 07:38:48 GMT
OpenAI喜提姚班学霸姚顺雨:思维树作者,普林斯顿博士,还是个Rapper @@ -24,9 +24,7 @@

清华姚班学霸姚顺雨,官宣加入了OpenAI。

而就是这么一则简短的消息,却引来了圈内众人的围观和祝福,来感受一下这个feel:

其中不乏像OpenAI前沿研究主管、美国IOI教练Mark Chen,以及AI领域的教授、投资人等等。

那么这位姚顺雨,到底为何能够引来如此关注?

从他过往的履历来看,我们可以提炼出这样几个关键词:

清华姚班

姚班联席会主席

清华大学学生说唱社联合创始人

普林斯顿计算机博士

姚顺雨,图源:个人主页

但除了较为亮点的履历之外,真正让姚顺雨步入公众的视野,还是因为他的多项科研成果:

思维树(Tree of Thoughts):让LLM反复思考,大幅提高推理能力。

SWE-bench:一个大模型能力评估数据集。

SWE-agent:一个开源AI程序员。

毫不夸张的说,几乎每项研究都在圈里产生了不小的涟漪;并且非常明显的一点是,它们都是深深围绕着大模型而展开。

这或许也正应了姚顺雨此次官宣里的一句话:

是时候将研究愿景转变为现实了。

至于这个“研究愿景”,我们继续深入了解一下。

研究关键词:Language Agents

如果纵观姚顺雨的主页,尤其是论文研究部分,就不难发现有一个出镜频率极高的词组——Language Agents

包括在他X主页中的简介,第一句话上来也是Language Agents:

而这,也正是他博士毕业论文的题目:Language Agents: From Next-Token Prediction to Digital Automation

Language Agents,即语言智能体,是姚顺雨提出来了一种新的智能体类别。

和传统智能体不同的是,这种方法是将语言模型用于智能体的推理和行动,主打一个让它们实现数字自动化(Digital Automation)。

至于具体的实现方法,则有三个关键技术(均有独立的论文),它们分别是:

ReAct:一种将推理和行动相结合的方法,通过语言模型生成推理轨迹和行动,来解决各种语言推理和决策任务。

思维树:一种基于树搜索的方法,通过生成和评估多个思维路径来解决复杂问题,提高语言模型的推理能力。

CoALA:一个概念框架,用于组织和设计语言代理,包括内存、行动空间和决策制定等方面。

以ReAct为例,研究是将语言模型的动作空间扩充为动作集和语言空间的并集。

语言空间中的动作(即思维或推理轨迹)不影响外部环境,但能通过对当前上下文的推理来更新上下文,可以支持未来的推理或行动。

例如在下图展示的对话中,采用ReAct的方法,可以引导智能体把“产生想法→采取行动→观察结果”这个过程进行循环。

如此一来,便可以结合推理的轨迹和操作,允许模型进行动态的推理,让智能体的决策和最终结果变得更优。

若是把ReAct的方法归结为让智能体“reason to act”,那么下一个方法,即思维树,则重在让智能体“reason to plan”

思维树是把问题表示为在树结构上的搜索,每个节点是一个状态,代表部分解决方案,分支对应于修改状态的操作。

它主要涉及四个问题:

思维分解:将复杂问题分解为一系列中间步骤,每个步骤都可以看作是树的一个节点。

思维生成:利用语言模型生成每个节点的潜在思维,这些思维是解决问题的中间步骤或策略。

状态评估:通过语言模型对每个节点的状态进行评估,判断其在解决问题中的进展和潜力。

搜索算法:采用不同的搜索算法(如广度优先搜索 BFS 或深度优先搜索 DFS)来探索思维树,找到最优的解决方案。

将思维树应用到“24点”游戏中,与此前的思维链(CoT)相比,准确率有了明显提高。

至于Language Agents中的最后一个关键技术,即CoALA,则是一种用于组织和设计语言智能体的概念框架。

从下面的结构图来看,它大致分为信息存储、行动空间和决策制定三大模块。

信息存储是指语言智能体将信息存储在多个内存模块中,包括短期工作记忆和长期记忆(如语义记忆、情景记忆和程序记忆)。

这些内存模块用于存储不同类型的信息,如感知输入、知识、经验等,并在智能体的决策过程中发挥作用。

除此之外,CoALA 将智能体的行动空间分为外部行动和内部行动;外部行动涉及与外部环境的交互,如控制机器人、与人类交流或在数字环境中执行操作。

内部行动则与智能体的内部状态和记忆交互,包括推理、检索和学习等操作。

最终,语言智能体会通过决策制定过程选择要执行的行动;而这个过程也是会根据各种因素、反馈,从中找出最优解。

除此之外,还有像开源AI程序员的工作SWE-agent等,也在圈里广泛传播。

但我们从姚顺雨众多的科研课题中,除了Language Agents之外,还能看到他所追求的另一个关键词——计算的思维

而这一点,其实在他念本科的时候便已经有所透露。

在即将奔赴普林斯顿大学攻读计算机博士学位前,作为2015级学长,姚顺雨曾在清华2019年各类型自主选拔复试的开营仪式上向复试考生分享了本人在清华的学习成长经历。

相关内容记录在他自己写的名为“你在清华姚班学到了什么?姚顺雨:足以改变世界”的文章中。

当时他从理论和实践两方面重点分享了计算的思维,并透露觉得四年下来,最大的收获就是计算的思维

从理论上我们现在看到很多不可能做到的事情。所谓理论指导实践,我觉得更多的是说,我们得从一个高度理解一个系统的能力极限和事情难易,然后再选择能做的、有意义的事情去做。

和阳光开朗大男孩tag锁死,姚顺雨还分享了因清华南方浸润计划项目,前往阿根廷的经历:

我遇到了一群阿根廷的孩子……英语并不是世界通用的,阿根廷人说西班牙语。我曾经试图学西班牙语,但是我放弃了,因为我学计算机,我拿出了谷歌翻译。我跟他们说北京的故宫和长城……

来源:清华招生 公众号

在他看来,这个时代,计算能和任何学科相结合,而世界很大,在清华可以做你想做的事。

说完姚顺雨,姚班还有哪些人在搞大模型?

爆火的大模型,姚班还有谁在搞?

不得不提的有马腾宇陈丹琦

俩人当年是同班同学,清华姚班2008级校友,并且之后都拿了具有“诺奖风向标”之称的斯隆奖。

马腾宇博士就读于普林斯顿大学,导师是理论计算机科学家、两届哥德尔奖得主Sanjeev Arora教授。

博士毕业后,MIT、哈佛、斯坦福等顶尖高校都给了他助理教授的Offer,马腾宇最终选择了斯坦福。

去年年底,马腾宇还正式宣布大模型创业了——创立Voyage AI,透露将带队打造目前最好的嵌入模型,还会提供专注于某个领域或企业的定制化模型。

斯坦福人工智能实验室主任Christopher Manning、AI领域著名华人学者李飞飞等三名教授担任Voyage AI的学术顾问。

陈丹琦这边,清华姚班完成本科学业后,2018年又在斯坦福大学拿下博士学位,主攻NLP,最终成为普林斯顿大学计算机科学系助理教授、普林斯顿语言与智能项目副主任,共同领导普林斯顿NLP小组。

其个人主页显示,“这些天主要被开发大模型吸引”,正在研究主题包括:

检索如何在下一代模型中发挥重要作用,提高真实性、适应性、可解释性和可信度。

大模型的低成本训练和部署,改进训练方法、数据管理、模型压缩和下游任务适应优化。

还对真正增进对当前大模型功能和局限性理解的工作感兴趣,无论在经验上还是理论上。

陈丹琦团队的大模型工作,量子位也有持续关注。

比如,提出的大模型降本大法——数据选择算法LESS, 只筛选出与任务最相关5%数据来进行指令微调,效果比用整个数据集还要好。

而指令微调正是让基础模型成为类ChatGPT助手模型的关键一步。

提出爆火的“羊驼剪毛”大法——LLM-Shearing大模型剪枝法,只用3%的计算量、5%的成本取得SOTA,统治了1B-3B规模的开源大模型。

除了这两位,业界、学术界姚班校友在搞大模型的还有很多。

之前火爆全网的大模型原生应用《完蛋!我被大模型包围了》及其续作《我把大模型玩坏了》,就是由姚班学霸带队开发的。

游戏作者范浩强,旷视6号员工。当年以IOI金牌、保送清华姚班、高二实习等传奇事迹被誉为天才少年。如今他已是旷视科技研究总经理,谷歌学术h-index 32的行业大佬。

马斯克xAI首个研究成果——Tensor Programs VI,共同一作中也有姚班校友的身影。

Tensor Programs VI是xAI创始成员、丘成桐弟子杨格(Greg Yang)之前Tensor Programs系列工作的延续,论文重点探讨了“如何训练无限深度网络”。

据说Tensor Programs相关成果,在GPT-4中已有应用。为解读论文,杨格本人当时还专门在X上进行了一场直播分享。

共同一作Dingli Yu,本科毕业于清华姚班,目前Dingli Yu也快要在普林斯顿计算机科学系博士毕业了。

还有很多很多…………

说回这次姚顺雨被挖到OpenAI,OpenAI这边的招聘动作还在继续。

OpenAI工程师Karina Nguyen发布最新招聘帖:

OpenAI模型行为团队招人啦!这是一个集设计工程与训练后研究于一体的梦想职位,也是世界上最稀有的工作❤️

我们使用诸如RLHF/RLAIF等对齐方法定义模型核心行为,以体现基本价值观并提升AGI的创造性智能。通过这些成果,我们与产品+模型设计及工程团队共同开创AI界面和交互新模式,这将影响数百万用户……

有意思的是,Karina Nguyen其实之前是Anthropic AI(Claude团队)研究员,去年五月还和思维链“开山论文”一作、OpenAI的Jason Wei一同在X(原Twitter)上进行提示词决斗。

没想到Karina Nguyen这么快就跳槽到了OpenAI……

顺便提一嘴,就在昨天有消息爆料,谷歌DeepMind研究员Thibault Sottiaux也被挖到了OpenAI。

要知道,Thibault Sottiaux在Gemini初代和Gemini 1.5等论文中都是核心贡献者。

由此可见大模型赛道目前火爆程度,各家抢赛道的抢赛道,抢人的抢人。

One More Thing

跟姚顺雨同年从清华毕业的,还有2位姚顺yu!

清华大学官方在2019年三位姚顺yu毕业时,发了一条微博,还晒了三人的合照。

除了现已加入OpenAI的姚顺雨,还有一个姚顺雨是来自人文学院日语专业的一位女生。

另一位姚顺yu是姚顺,来自物理系,他是2018年本科生特奖得主,本科期间就以第一作者在物理顶刊PRL(Physical Review Letters)上发表论文两篇、PRB(Physical Review B)一篇。

参考链接:

[1]https://x.com/ShunyuYao12/status/1818807946756997624

[2]https://ysymyth.github.io

[3]https://x.com/karinanguyen_/status/1819082842238079371

[4]https://weibo.com/1676317545/HCR7yuXAl?refer_flag=1001030103_

本文来自微信公众号“量子位”(ID:QbitAI),作者:金磊 西风,36氪经授权发布。

]]> Fri, 02 Aug 2024 07:38:30 GMT -Fri, 02 Aug 2024 07:38:30 GMT
- 最可能做出 AI 超级应用的,不是 OpenAI https://www.36kr.com/p/2887510256229254 diff --git a/docs/36kr.log b/docs/36kr.log index e69bb354735..eab11dc7014 100644 --- a/docs/36kr.log +++ b/docs/36kr.log @@ -48050,3 +48050,15 @@ Fetch error: HTTPSConnectionPool(host='rsshub.app', port=443): Read timed out. ( Fetch failed from https://rsshub.app/36kr/motif/327685734401 append_entries: 0 error when rendering xml, skip docs/36kr +------------------------------------------------------ +Started: 2024-08-02 14:04:00.849893 +Existing_entries: 563 +Fetching from https://rsshub.app/36kr/motif/327685554177 +Fetching from https://rsshub.app/36kr/motif/327687077889 +Fetching from https://rsshub.app/36kr/motif/1366661828936836 +Fetching from https://rsshub.app/36kr/motif/1366662419875203 +Fetching from https://rsshub.app/36kr/motif/1756302767423108 +Fetching from https://rsshub.app/36kr/motif/327686815745 +Fetching from https://rsshub.app/36kr/motif/327685734401 +append_entries: 0 +Finish: 2024-08-02 14:04:01.944632 diff --git a/docs/appinn.log b/docs/appinn.log index b4e13c18c2b..ff015b801a1 100644 --- a/docs/appinn.log +++ b/docs/appinn.log @@ -32768,3 +32768,11 @@ Fetching from https://meta.appinn.net/tag/ios.rss Fetching from https://meta.appinn.net/tag/macos.rss append_entries: 0 Finish: 2024-08-02 12:04:55.085751 +------------------------------------------------------ +Started: 2024-08-02 14:03:40.457388 +Existing_entries: 505 +Fetching from https://meta.appinn.net/tag/chrome.rss +Fetching from https://meta.appinn.net/tag/ios.rss +Fetching from https://meta.appinn.net/tag/macos.rss +append_entries: 0 +Finish: 2024-08-02 14:03:43.394893 diff --git a/docs/brett-terpstra.log b/docs/brett-terpstra.log index 5a69286ff43..2fdd03ea61c 100644 --- a/docs/brett-terpstra.log +++ b/docs/brett-terpstra.log @@ -68218,3 +68218,35 @@ Filter: [BBEdit giveaway!](https://brett.trpstra.net/link/535/16674315/bbedit-gi Filter: [The Acorn giveaway winners!](https://brett.trpstra.net/link/535/16672695/the-acorn-giveaway-winners) append_entries: 0 Finish: 2024-08-02 12:04:51.020429 +------------------------------------------------------ +Started: 2024-08-02 14:03:38.533262 +Existing_entries: 152 +Fetching from https://brett.trpstra.net/brettterpstra +Filter: [PopClip giveaway!](https://brett.trpstra.net/link/535/16755959/popclip-giveaway) +Filter: [The Backblaze giveaway winner!](https://brett.trpstra.net/link/535/16754778/the-backblaze-giveaway-winner) +Filter: [Backblaze giveaway!](https://brett.trpstra.net/link/535/16750019/backblaze-giveaway) +Filter: [The TableFlip giveaway winners!](https://brett.trpstra.net/link/535/16748347/the-tableflip-giveaway-winners) +Filter: [TableFlip giveaway!](https://brett.trpstra.net/link/535/16743788/tableflip-giveaway) +Filter: [The Dropzone giveaway winners!](https://brett.trpstra.net/link/535/16742551/the-dropzone-giveaway-winners) +Filter: [Dropzone giveaway!](https://brett.trpstra.net/link/535/16737127/dropzone-giveaway) +Filter: [The Marked giveaway winners!](https://brett.trpstra.net/link/535/16735776/the-marked-giveaway-winners) +Filter: [Marked giveaway!](https://brett.trpstra.net/link/535/16730565/marked-giveaway) +Filter: [The OmniOutliner giveaway winners!](https://brett.trpstra.net/link/535/16728596/the-omnioutliner-giveaway-winners) +Filter: [OmniOutliner giveaway!](https://brett.trpstra.net/link/535/16723486/omnioutliner-giveaway) +Filter: [The Screens giveaway winners!](https://brett.trpstra.net/link/535/16721876/the-screens-giveaway-winners) +Filter: [Screens giveaway!](https://brett.trpstra.net/link/535/16716883/screens-giveaway) +Filter: [The Audio Hijack giveaway winners!](https://brett.trpstra.net/link/535/16714716/the-audio-hijack-giveaway-winners) +Filter: [Audio Hijack giveaway!](https://brett.trpstra.net/link/535/16709654/audio-hijack-giveaway) +Filter: [The RetroBatch Pro giveaway winners!](https://brett.trpstra.net/link/535/16707803/the-retrobatch-pro-giveaway-winners) +Filter: [Retrobatch Pro giveaway!](https://brett.trpstra.net/link/535/16701743/retrobatch-pro-giveaway) +Filter: [The DEVONthink giveaway winners!](https://brett.trpstra.net/link/535/16700012/the-devonthink-giveaway-winners) +Filter: [DEVONthink giveaway!](https://brett.trpstra.net/link/535/16694923/devonthink-giveaway) +Filter: [The OmniGraffle giveaway winners!](https://brett.trpstra.net/link/535/16692996/the-omnigraffle-giveaway-winners) +Filter: [OmniGraffle giveaway!](https://brett.trpstra.net/link/535/16687788/omnigraffle-giveaway) +Filter: [The MacUpdater giveaway winners!](https://brett.trpstra.net/link/535/16685793/the-macupdater-giveaway-winners) +Filter: [MacUpdater giveaway!](https://brett.trpstra.net/link/535/16680656/macupdater-giveaway) +Filter: [The BBEdit giveaway winners!](https://brett.trpstra.net/link/535/16679893/the-bbedit-giveaway-winners) +Filter: [BBEdit giveaway!](https://brett.trpstra.net/link/535/16674315/bbedit-giveaway) +Filter: [The Acorn giveaway winners!](https://brett.trpstra.net/link/535/16672695/the-acorn-giveaway-winners) +append_entries: 0 +Finish: 2024-08-02 14:03:39.289393 diff --git a/docs/byte-tank.log b/docs/byte-tank.log index 620fbb56415..92c1a105817 100644 --- a/docs/byte-tank.log +++ b/docs/byte-tank.log @@ -21196,3 +21196,9 @@ Existing_entries: 51 Fetching from https://lopespm.com/atom.xml append_entries: 0 Finish: 2024-08-02 12:05:06.562013 +------------------------------------------------------ +Started: 2024-08-02 14:03:58.603615 +Existing_entries: 51 +Fetching from https://lopespm.com/atom.xml +append_entries: 0 +Finish: 2024-08-02 14:03:58.849136 diff --git a/docs/index.html b/docs/index.html index 2a5b793a61a..cc23bdcd76d 100644 --- a/docs/index.html +++ b/docs/index.html @@ -31,7 +31,7 @@
- 2024-08-02 12:06:17 + 2024-08-02 14:04:06