资讯

爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普(2024-04-28)
爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普;人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继发布具有里程碑意义的Llama......

爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及(2024-04-28 11:05)
爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及;
人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继......

爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及(2024-04-28)
爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及;中国 2024年04月28日——人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft......

源2.0大模型适配LLaMA-Factory框架 微调训练快捷高效(2024-01-19)
源2.0大模型适配LLaMA-Factory框架 微调训练快捷高效;近日,源2.0开源大模型与LLaMA-Factory框架完成全面适配,用户通过LLaMA-Factory,即可快捷、高效......

Meta Llama 3.1模型刚刚发布,英特尔就开启了适配:跑分性能一流(2024-07-25)
Meta Llama 3.1模型刚刚发布,英特尔就开启了适配:跑分性能一流;“开源落后论” 再一次被打脸。7月23日,Meta正式发布Llama 3.1,这是如今开源领域使用者最广泛,性能最顶级的大模型......

爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及(2024-04-28)
爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及;人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继......

英特尔披露至强6处理器针对Meta Llama 3模型的推理性能(2024-04-21)
英特尔披露至强6处理器针对Meta Llama 3模型的推理性能;近日,Meta重磅推出其80亿和700亿参数的开源大模型。该模型引入了改进推理等新功能和更多的模型尺寸,并采......

英特尔AI解决方案为最新Meta Llama 3.1模型提供加速(2024-07-25)
于7月24日正式发布了其功能更强大的AI大模型Llama 3.1。Llama 3.1涵盖多个不同规模及功能的全新模型,其中包括目前可获取的、最大的开放基础模型—— Llama 3.1 405B......

英特尔披露至强6处理器针对Meta Llama 3模型的推理性能(2024-04-20)
英特尔披露至强6处理器针对Meta Llama 3模型的推理性能;近日,Meta重磅推出其80亿和700亿参数的Meta Llama 3开源大模型。该模型引入了改进推理等新功能和更多的模型尺寸,并采......

英特尔AI解决方案为最新Meta Llama 3.1模型提供加速(2024-07-26 08:40)
月24日正式发布了其功能更强大的AI大模型Llama 3.1。Llama 3.1涵盖多个不同规模及功能的全新模型,其中包括目前可获取的、最大的开放基础模型—— Llama 3.1 405B(4050......

英特尔AI解决方案为最新Meta Llama 3.1模型提供加速(2024-07-25)
7月24日正式发布了其功能更强大的AI大模型Llama 3.1。Llama 3.1涵盖多个不同规模及功能的全新模型,其中包括目前可获取的、最大的开放基础模型—— Llama 3.1 405B(4050......

英特尔披露至强6处理器针对Meta Llama 3模型的推理性能(2024-04-22)
英特尔披露至强6处理器针对Meta Llama 3模型的推理性能;近日,Meta重磅推出其80亿和700亿参数的Meta Llama 3开源大模型。该模型引入了改进推理等新功能和更多的模型尺寸,并采......

英特尔披露至强6处理器针对Meta Llama 3模型的推理性能(2024-04-22 13:43)
英特尔披露至强6处理器针对Meta Llama 3模型的推理性能;近日,Meta重磅推出其80亿和700亿参数的Meta Llama 3开源大模型。该模型引入了改进推理等新功能和更多的模型尺寸,并采......

无需显卡,树莓派也能运行开源系列模型 LLaMA(2023-03-15)
无需显卡,树莓派也能运行开源系列模型 LLaMA;Meta 在上个月末发布了一系列开源大模型 ——LLaMA(Large Language Model Meta AI),参数量从 70 亿到 650......

全球科技大厂“混战”AI大模型(2023-07-20)
(18日)表示,将发布其开源大模型LLaMA的商用版本,为初创企业和其他企业提供了一个强大的免费选择,以取代OpenAI和谷歌出售的昂贵的专有模型。
让像Llama这样复杂的模型广泛地供企业免费使用,这意......

车载GPT爆红前夜:一场巨头竞逐的游戏(2024-05-15)
,即便那些开源大模型,其消耗的GPU资源都是不可承担之重。据悉,Meta开源的LLaMA-2-70B的大模型,使用了2000个英伟达A100训练,耗费了172万个GPU小时......

英特尔通过软硬件为LIama 2大模型提供加速,持续发力推动AI发展(2023-07-20)
英特尔通过软硬件为LIama 2大模型提供加速,持续发力推动AI发展;英特尔通过软硬件为LIama 2大模型提供加速,持续发力推动AI发展
英特尔广泛的AI硬件组合及开放的软件环境,为Meta发布......

过程不仅需要数万甚至十几万块GPU加速卡,出错的几率也越来越高。Meta(Facebook)就披露了一份惊人的报告。
Meta在报告中披露,为了训练自己的Llama 3 4050亿参数大模型,使用......

谷歌发布全球最强开源大模型Gemma:平均性能远超Llama 笔记本可运行(2024-02-22)
谷歌发布全球最强开源大模型Gemma:平均性能远超Llama 笔记本可运行;2月22日消息,今天凌晨,谷歌宣布推出全球性能最强大、轻量级的开源模型系列——Gemma。
该模型共分为分为2B(20亿参......

英特尔一系列AI解决方案,为Llama 2大模型提供实力之选(2023-07-25)
英特尔一系列AI解决方案,为Llama 2大模型提供实力之选;英特尔广泛的AI硬件组合及开放的软件环境,为Meta发布的Llama 2模型提供了极具竞争力的选择,进一步助力大语言模型的普及,推动AI......

英特尔一系列AI解决方案,为Llama 2大模型提供实力之选(2023-07-25)
英特尔一系列AI解决方案,为Llama 2大模型提供实力之选;
英特尔广泛的硬件组合及开放的软件环境,为Meta发布的Llama 2模型提供了极具竞争力的选择,进一步助力大语言模型的普及,推动......

英特尔通过软硬件为LIama 2大模型提供加速,持续发力推动AI发展(2023-07-21)
英特尔通过软硬件为LIama 2大模型提供加速,持续发力推动AI发展;英特尔广泛的AI硬件组合及开放的软件环境,为Meta发布的Llama 2模型提供了极具竞争力的选择,进一步助力大语言模型......

国内首个AI算力栈在浙江桐乡落地(2024-04-02)
浙江桐乡市落地。AI由宁畅发布,旨在有效解决大模型产业落地的全周期问题。NEX AI Lab集成加速计算节点、全闪存存储节点,可为GPT、LLaMA、Stable Diffusion等AI模型,提供多元场景应用优化支持。
......

谷歌发布全球最强开源大模型Gemma(2024-02-23)
谷歌发布全球最强开源大模型Gemma;
2月22日消息,今天凌晨,谷歌宣布推出全球性能最强大、轻量级的开源模型系列——Gemma。
该模型共分为分为2B(20亿参数)和7B(70亿)两种......

英特尔突袭英伟达H100!新AI芯片训练快40%(2024-04-10)
继续往下看。
硬刚英伟达的Gaudi 3
英特尔表示,Gaudi 3已经在Llama上做了测试,可以有效地训练或部署AI大模型,包括文生图的Stable
Diffusion和语......

微软紧急撤回最先进的AI大模型:居然忘了测试了(2024-04-22)
微软紧急撤回最先进的AI大模型:居然忘了测试了;
4月21日消息,Meta发布超级彪悍的大语言模型Llama 3之后,也很快推出了自己的新一代WizardLM2
8x22B,号称......

铨兴科技AI创新解决方案开启“铨”民AI时代(2024-08-27)
了企业人工智能本地化部署最后一公里的难题,使本地端专属AI应用唾手可得,助力开启全民AI时代。
· 适配场景灵活多样
铨兴解决方案对Llama、Mistral、千问、智普等主流开源大模型......

3万卡集群点亮!国产AI加速卡昆仑芯全面适配DeepSeek(2025-02-07 11:41)
。
同时,昆仑芯也已全面适配文心系列、Llama、Qwen、ChatGLM、Baichuan等各类大模型的推理和训练任务,性能优势明显,并上线运行各类大模型任务。
据介......

联发科天玑9300+再续全大核传奇,顶级性能节节高(2024-05-09)
带来更快速、更安全的端侧AI计算能力,还率先支持AI推测解码加速技术,性能大幅提升,可以使Llama 2 70亿大模型运行速度提高到22 Tokens/s,拥有业界最高的端侧运行速度,更快......

华为高管:昇腾 AI 算力性能已超英伟达 A100,近半中国大模型选择昇腾技术路(2024-06-19)
华为高管:昇腾 AI 算力性能已超英伟达 A100,近半中国大模型选择昇腾技术路;IT之家 6 月 19 日消息,据钛媒体 18 日报道,在近期举行的 2024 世界......

联发科发布天玑AI开发套件,为开发者提供“快、全、强、易”专业开发体验(2024-05-09 11:42)
旗舰芯支持多种前沿主流AI大模型,包括阿里云通义千问大模型、百川大模型、文心大模型、谷歌Gemini Nano、零一万物终端大模型、Meta Llama 2 & Llama 3等。用一句话概括天玑9300......

联发科召开天玑开发者大会:定义生成式AI手机,与开发者共建AI应用生态(2024-05-09)
,包括阿里云通义千问大模型、百川大模型、文心大模型、谷歌Gemini Nano、零一万物终端大模型、Meta Llama 2 & Llama 3等。用一句话概括天玑9300+就是,不仅......

天玑AI开发套件赋能终端生成式AI应用开发全环节,打造手机创新就用它(2024-05-07 17:28)
地把握创新机遇。
全面的GenAI Model Hub ,是联发科为开发者打造的模型库,目前已适配包括:Meta Llama、百川大模型、阿里云通义千问在内的全球主流大模型。开发者可以轻松获取并使用这些不断新增的大模型......

联发科联合产业伙伴推出《生成式AI手机产业白皮书》,未来手机的形态清晰了!(2024-05-08)
发者在与时间赛跑的创新竞赛中,抢得先机,更好地把握创新机遇。
全面的GenAI Model Hub ,是联发科为开发者打造的模型库,目前已适配包括:Meta Llama、百川大模型、阿里云通义千问在内的全球主流大模型......

潞晨科技Colossal-AI + 浪潮信息AIStation,大模型开发效率提升10倍(2024-03-01)
高效多维并行、内存管理、低延迟推理系统等模块,可显著提高AI大模型训练、微调和部署效率。以当前被广泛使用的LLaMA大模型为例,Colossal-AI提供开箱即用的650亿参数预训练方案,可将......

潞晨科技Colossal-AI + 浪潮信息AIStation,大模型开发效率提升10倍(2024-03-04 09:00)
高效多维并行、内存管理、低延迟推理系统等模块,可显著提高AI大模型训练、微调和部署效率。以当前被广泛使用的LLaMA大模型为例,Colossal-AI提供开箱即用的650亿参数预训练方案,可将训练速度提升38......

摩尔线程首个千卡KUAE智算中心落地(2023-12-20)
并行、流水线并行和ZeRO,且针对高效通信计算并行和Flash Attention做了额外优化。
目前,摩尔线程支持包括LLaMA、GLM、Aquila、Baichuan、GPT、Bloom、玉言等各类主流大模型......

第一批AI创业者正在密集回大厂(2024-12-03)
表着更激烈的人才争夺。
当初,Meta 公司曾因为开发Llama大模型,发生了争夺计算资源的内部斗争,如今 Llama 原始研究论文的 14
位作者中,超过一半已经离开了公司,转投其他初创公司或其他大公司。有些......

源大模型AIPC助手YuanChat焕新!支持12种文档构建知识库+联网检索(2024-08-30)
业务无忧:在本地环境中安全、高效地使用M32完成任务
源2.0-M32具备超高的模算效率,在算力需求仅为1/19的情况下,性能全面对标Llama 3-70B,对大模型......

从数据中心到边缘侧,英特尔全方案助力AI加速落地(2024-07-26)
,Meta发布了Llama 3大模型,紧接着,在7月24日,该公司又发布了升级版的Llama 3.1。在上述大模型发布的当日,英特尔就宣布自己的AI产品组合支持这些大模型,并通......

大模型乱斗 GPT-4迎来“双子”星?(2023-12-14)
也有机会。
Meta对AI的投资主要集中在三个方面。一是基础设施:Meta耗费巨资,在全球范围内建立昂贵的数据中心;二是开源大模型Llama 2:作为AI社区中最强大的开源大模型,Llama 2包括7B......

英特尔通过软硬件为LIama 2大模型提供加速(2023-07-20)
英特尔通过软硬件为LIama 2大模型提供加速;广泛的AI硬件组合及开放的软件环境,为Meta发布的Llama 2模型提供了极具竞争力的选择,进一步助力大语言模型的普及,推动AI发展......

掌上AI时代要来了,天玑9300端侧落地70亿AI大模型,人人都能hold住它!(2023-10-19)
外,还和生态内的多个合作伙伴强强联手。此前,联发科就已与百度联合发起飞桨和文心大模型硬件生态共创计划,还利用 Meta大语言模型(LLM)Llama 2和APU和NeuroPilot建立完整的终端侧 AI......

源大模型AIPC助手YuanChat焕新!支持12种文档构建知识库+联网检索(2024-08-29)
全面对标Llama 3-70B,对大模型运行部署的硬件要求大幅降低。
现在,无需GPU,您在单CPU和XPU环境下即可轻松简单地部署YuanChat以使用源2.0-M32大模型,所有......

天玑9300牛了!手机圈首个70亿AI大模型落地,这端侧参数规模顶破天了!(2023-10-19 09:17)
生态内的多个合作伙伴强强联手。此前,联发科就已与百度联合发起飞桨和文心大模型硬件生态共创计划,还利用 Meta大语言模型(LLM)Llama 2和APU和NeuroPilot建立完整的终端侧 AI 计算生态,近期......

联发科MWC 2024体验:天玑9300领衔,AI大崛起!(2024-03-01)
功能不需要云端计算,而是直接在手机上运行,从而提高了性能、隐私、安全和可靠性,降低了延迟和运营成本。
联发科展台上展示了端侧生成式 AI 技能扩充技术,它可以基于基础大模型持续在端侧进行LoRA(LoRA......

阿里云发布通义千问2.0,模型参数达千亿级(2023-10-31)
阿里云发布通义千问2.0,模型参数达千亿级;
10月31日,正式发布千亿级参数大模型通义千问2.0。在10个权威测评中,通义千问2.0综合性能超过GPT-3.5,正在加速追赶GPT-4。当天......

阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4(2023-10-31)
阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4;10月31日,阿里云正式发布千亿级参数大模型通义千问2.0。在10个权威测评中,通义千问2.0综合性能超过GPT-3.5,正在......

阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4(2023-10-31)
阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4;10月31日,阿里云正式发布千亿级参数大模型通义千问2.0。在10个权威测评中,通义千问2.0综合性能超过GPT-3.5,正在......

阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4(2023-11-01 09:17)
阿里云发布通义千问2.0,性能超GPT-3.5,加速追赶GPT-4;阿里云正式发布千亿级参数大模型通义千问2.0。在10个权威测评中,通义千问2.0综合性能超过GPT-3.5,正在加速追赶GPT-4......
相关企业
;深圳市精鑫宏模型有限公司;;深圳精鑫宏是一家颇具规模的集研究、生产、销售于一体的遥控模型玩具电子公司。公司主要从事一系列的模型配件,以机电组合产品为主,应广大模型爱好者需求,公司
;祥源塑业;;廊坊文安祥源塑业专业生产:保温钉、外墙保温钉、外墙保温锚固钉、塑料保温钉、大锚内置锚固钉、现浇砼大模内置、大模内置等手机:13931662555电话:0316-5051888 网址
;昆山市中大模架有限公司;;
;天津市鼎大模具有限公司;;
;河北鑫博大模具科技有限公司;;
;深圳市中大模具塑胶技术咨询 有限公司;;
;上海立定展示器材有限公司;;上海立定展示器材有限公司(立定模型)从事各种模型生产制作,主要产品有:定做各种船舶模型,游艇模型,集装箱模型, 房产模型,沙盘,工业模型,礼品模型,车库模型,机械模型
;浏阳市诚信科教仿真模型有限公司;;浏阳市诚信科教仿真模型有限公司生产的各类模型几乎涵盖所有专业,具体有如下产品:风力发电模型、太阳能发电模型、波浪发电模型、核电厂模型、建筑模型、城市规划模型、沙盘模型
;万丰瑞(北京)国际模型有限公司;;公司主营:房地产模型 建筑模型 工业模型 机械模型 能源模型 博物馆模型 科技馆模型 航空模型
;上海广育医学模 型有限公司;;上海广育公司专业生产心肺复苏模拟人、心肺复苏模型、急救训练模型、骨骼模型、人体解剖模型、护理模型、医学教学模型、电工急救训练模型、电力安全培训模型、急救模型、急救训练模型