Qwen3をvllmでserveしたいのにできなかったときに確認すること
最初に以下のエラーが発生しましたValueError: The checkpoint you are trying to load has model type qwen3 but Transformers does not recognize this architecture. Thi
最初に以下のエラーが発生しましたValueError: The checkpoint you are trying to load has model type qwen3 but Transformers does not recognize this architecture. Thi
以前見かけたこちらのリポジトリ (tascj/offload_adam)を、huggingface/transformersに実装されているTrainerを用いたFSDPと併用してみる話です。リポジトリ作者様による解説はこちらのリンクを参照ください。本記事のまとめtascj/of
大きな桁数の多倍長整数同士の乗算速度は、高速フーリエ変換を用いた畳み込みの速度に大きく依存します。今回は、高速フーリエ変換(FFT)を用いた乗算について、アルゴリズムや実装の工夫による実行速度の改善度合いを検証してまとめてみることにしました。本記事は個人的な記録であり、決して高速な実装ではない点に
大きなJSONファイルの読み書きをする必要があったので、Pythonから使える高速なJSONライブラリのベンチマークを行いました。比較対象のライブラリはChatGPT 4oを使って調査しました。この記事の結論書き込みを高速化したい→orjson読み込みを高速化したい→py
installなどで手間取った時にいちいち検索するのが面倒なので、自分用の備忘録として参考にした or 実際に行った解決方法をまとめようと思います。poetry installが全然終わらないときkeyringを読まないようにすればいい参考:https://qiita.co
夏頃までの約2~3ヶ月は、週1日投稿を心がけてそれなりに続いていたのですが、9月からは放置が続いておりました(実際は書き溜めたものを予約投稿していたので、ブログのための作業をしていなかった期間はもう少し長い…)このまま放っておくよりはなんでも良いから書いた方が良いだろうという雑なモチベーシ
NVIDIAがLlama3.1の圧縮版モデルを公開https://developer.nvidia.com/blog/how-to-prune-and-distill-llama-3-1-8b-to-an-nvidia-llama-3-1-minitron-4b-model/Q
量子コンピューターを用いた最適化アルゴリズムの一つに、Quantum Approximation Optimization Algorithm (QAOA) があります。このアルゴリズムは主にゲート型の量子コンピューターで動作するアルゴリズムであり、実行するには量子回路のシミュレーターもしくは本物
TL;DRtkinter >= 8.6を使えばpng画像を表示することができる手元環境がtkinter < 8.5の場合はbrew install tcl-tkの後Pythonを再インストールすることでtkinterのバージョンを更新できる前提計算機環境
最近理論保証がある研究に関心があり、いくつか文献を調査しています。本記事はその中間まとめ的な役割の個人的なメモです。いくつかの文献を参考に、初歩的な事柄をまとめようと思います。注意点は以下の通りです。数式多めです。なるべく正確な記述を心がけていますが、誤りが含まれる場合もあります