[表示 : 全て 最新50 1-99 2ch.scのread.cgiへ]
Update time : 07/23 08:45 / Filesize : 1 KB / Number-of Response : 9
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

llvm



1 名前:デフォルトの名無しさん [2024/03/19(火) 20:59:58.69 ID:cXumgq0P.net]
ビルドに2時間かかる

2 名前:デフォルトの名無しさん mailto:sage [2024/03/20(水) 00:26:40.87 ID:VbUXRLzi.net]
LLVM IR出力すればPythonとかでもコンパイラ書けるのすごいと思う

3 名前:デフォルトの名無しさん mailto:sage [2024/03/25(月) 19:29:53.92 ID:3Ch+BeGW.net]
Python + Larkで構文解析器して、llvmliteでLLVM IRを吐き出せば、誰でもコンパイラ作れる時代

4 名前:デフォルトの名無しさん mailto:sage [2024/04/23(火) 10:43:47.75 ID:2F7cqUxD.net]
うちなんか、llvm -> lld -> compiler-rt -> clang+extra-tools までで5時間だぞ()

5 名前:デフォルトの名無しさん [2024/05/05(日) 06:55:09.07 ID:ieH+JJr4.net]
おまえら、stand-alone build してないの?

6 名前:デフォルトの名無しさん [2024/06/11(火) 12:24:03.99 ID:6UMX2jU9.net]
Let's reproduce GPT-2 (124M) - YouTube
https://www.youtube.com/watch?v=l8pRSuU81PU

Andrej Karpathy

2024/06/10
We reproduce the GPT-2 (124M) from scratch. This video covers the whole process: First we build the GPT-2 network, then we optimize its training to be really fast, then we set up the training run following the GPT-2 and GPT-3 paper and their hyperparameters, then we hit run, and come back the next morning to see our results, and enjoy some amusing model generations. Keep in mind that in some places this video builds on the knowledge from earlier videos in the Zero to Hero Playlist (see my channel). You could also see this video as building my nanoGPT repo, which by the end is about 90% similar.

7 名前:デフォルトの名無しさん mailto:sage [2024/06/24(月) 13:56:41.08 ID:OzsKCRyN.net]
加熱するLLM開発競争に冷や水、オープンモデルの組み合わせだけでGPT-4o越えの事実 ? WirelessWire News
https://wirelesswire.jp/2024/06/86709/

8 名前:デフォルトの名無しさん mailto:sage [2025/06/15(日) 07:29:40.98 ID:bNIMKunY.net]
ヴァァージョンあげが頻繁すぎぃぃ






[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<1KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef