最近开始裁员
今年又是没有目标随性的一年,每天便是重复上班,下班。在这家公司已经工作了三年半时间,最近公司开始裁员了。
今年又是没有目标随性的一年,每天便是重复上班,下班。在这家公司已经工作了三年半时间,最近公司开始裁员了。
Ollama 是一个强大的本地推理大模型平台,旨在简化模型的本地部署、管理和推理工作流。它允许用户在本地机器上拉取、管理、运行大模型,并提供多种访问方式,包括本地 CLI、HTTP 接口以及通过 OpenAI 客户端的集成。这篇文章将详细介绍 Ollama 的功能,如何使用 Ollama 拉取模型、运行模型,并通过多种方式访问推理服务。
君君今年满 4 岁了,下半年开始上幼儿园。上学第一天,我和妈妈还有妹妹一起送君君去学校。小孩子刚开始离开爸妈亲人,头几天都会很不习惯,不想幼儿园,甚至临别哭闹,这些我们都有预料。然而君君却没有哭闹,送他进到学校门以后,老师带着去教室,君君仅仅皱了一会眉头,没有看我就去了教室。
实际上是两天一晚,早上早点出发,第二晚晚点回来,留足够的时间玩。
最近公司开了一场多模态的大模型发布会。声称可以实现文生文、文生图、文生视频的能力,并且还演示了多模态的生成能力。出席发布会的包括某市的市委书记、市长等主要领导。整个发布会下来,看起来都很顺利,会议结束办了一个小的座谈会。
原计划4月30日一家人出发,去河源度过五一假期,没想到出了突发事情,我们只能当天往返,凑成了这一日游。
算法推理服务的日处理能力当前已经达到千万级别,我们的算法系统采用Kafka流式消费。系统经常面临的一个重要问题就是消息积压,这时候就需要增加推理算力。如何动态的增减推理实例数,以保障消息不丢失,同时也不需要修改服务代码。本文做了一个小实验,验证多个消费者同时消费同一个topic,消息是否会丢失,或者存在重复消费的情况。
最近几天深圳开始了暴雨模式,还记得2015年我刚来深圳上班,碰到雨季,周末外面下着大雨,我一个人在出租屋里,捧着一本书看。感受深圳绵绵不断的雨,当时写了一篇短文,《喜欢这个城市,喜欢下雨》。