BioErrorLog Tech Blog

試行錯誤の記録

深層学習と集団的知性 | 論文: Collective intelligence for deep learning: A survey of recent developments

深層学習と集団的知性の関係についての論文"Collective intelligence for deep learning: A survey of recent developments" の論文要約メモです。 はじめに Collective intelligence for deep learning: A survey of recent developments 概要 深層学習の歴…

"周辺確率"という名前の由来

周辺確率(marginal probability)という名前の由来はどこから来ているのか? はじめに "周辺確率"という名前の由来 おわりに 参考 はじめに 周辺確率という名前の由来は? 周辺確率の"周辺"ってどういう意味? 知らなかったので備忘録です。 "周辺確率"という…

GPT-2を理解する | 論文メモ: Language Models are Unsupervised Multitask Learners

GPT-2の論文"Language Models are Unsupervised Multitask Learners" の論文要約メモです。 はじめに Language Models are Unsupervised Multitask Learners 概要 手法 学習データセットWebTextの作成 BPE: Byte Pair Encoding モデルアーキテクチャ 結果 言…

Organoid Intelligenceを理解する | 論文メモ: Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish

Organoid Intelligence (OI)の動向を記載したレビュー論文"Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish" の論文要約メモです。 はじめに Organoid intelligence (OI): the new frontier in biocomputing and …

レオナルド・ダ・ヴィンチ手稿はどこで読めるのか

レオナルド・ダ・ヴィンチの手稿をオンラインで閲覧できる場所を一覧でまとめます。 はじめに レオナルド・ダ・ヴィンチ手稿はどこで読めるのか アトランティコ手稿 トリヴルツィオ手稿 鳥の飛翔に関する手稿 パリ手稿 アッシュバーナム手稿 ウィンザー手稿 …

初代GPTを理解する | 論文メモ: Improving Language Understanding by Generative Pre-Training

最初のGPT論文"Improving Language Understanding by Generative Pre-Training" の要約メモです。 はじめに Improving Language Understanding by Generative Pre-Training 概要 手法 結果 Natural Language Inferenceタスク Question answering / commonsen…

FlexispotでRST(ASR, A5T)エラーの対処法

Flexispot昇降デスクで"RST"みたいな表示が出て動かなくなったときの対処法メモです。 はじめに FlexispotでRST(ASR, A5R)エラーの対処法 エラーの意味 対処法 おわりに 参考 はじめに Flexispot昇降デスクを使っています。 あるとき、↓のような表示が出て動…

Transformerの原典を読む | 論文メモ: Attention Is All You Need

Transformerの原典である"Attention Is All You Need" の論文要約メモです。 はじめに Attention Is All You Need 概要 手法 モデルアーキテクチャ 学習方法 結果 翻訳タスク Transformerモデルバリエーション 英語構文解析 おわりに/所感 参考 はじめに か…

1-bit LLMを理解する | 論文メモ: The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

"The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" の論文要約メモです。 はじめに The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits 概要 手法 結果 おわりに/所感 参考 はじめに 今回まとめる論文はこちら: arxiv.…

Sakana.aiの進化的モデルマージを理解する | 論文メモ: Evolutionary Optimization of Model Merging Recipes

Sakana.aiの進化的モデルマージを記述した論文"Evolutionary Optimization of Model Merging Recipes" の論文要約メモです。 はじめに Evolutionary Optimization of Model Merging Recipes 概要 手法 結果 LLMタスク VLMタスク おわりに/所感 参考 はじめに…

Andrew Ngに学ぶ論文の読み方

論文読みの手法を、Andrew Ngの講義動画から学びます。 はじめに Andrew Ngに学ぶ論文の読み方 論文を読む 理解を確かめる おわりに 参考 はじめに 最近AI関連を調べている中で、論文に目を通す機会も増えてきました。 そんな中、かのAndrew Ng先生がStanfor…

ゼロから作るGPT講義シリーズのすすめ | Andrej Karpathy

Andrej KarpathyのNeural Networks: Zero to Hero動画シリーズがとても良かったので紹介します。 はじめに 前提 Neural Networks: Zero to Hero 1. ニューラルネットワークと誤差逆伝播法への入門: microgradの構築 2. 言語モデリングへの入門: makemoreの構…

torch.tensorとtorch.Tensorの違い | PyTorch

torch.tensor()とtorch.Tensor()の違いについての備忘録です。 はじめに torch.tensorとtorch.Tensorの違い 一言で 詳しく 補足: 空のtensorを作るには おわりに 参考 はじめに PyTorchでtensorを作るときはtorch.tensor()メソッドが使われることが多いです…

Ubuntuの鶴の壁紙の詳細を調べる

Ubuntuに入っている綺麗な鶴の壁紙の詳細を追います。 はじめに Ubuntuの鶴の壁紙の詳細を調べる 画像ファイルを調べる この絵が作られた場所 この絵のタイトル 元データで遊ぶ おわりに 参考 はじめに Ubuntuの鶴の壁紙 このUbuntuの鶴の壁紙、綺麗で面白い…

ファイル名をコマンドで一括変更する | Linux

renameコマンドでできます。 はじめに renameコマンド 基本的な使い方 ファイル名を一括変更する おわりに 参考 はじめに aaa-1.txt aaa-2.txt aaa-3.txt このようなファイルがあったときに、 bbb-1.txt bbb-2.txt bbb-3.txt のようなファイル名に、CLIコマ…