Machine Learning Engineer focused on efficient deep learning and model optimization. My goal is to help us achieve and improve super-human intelligence at an affordable price, both to our pockets and to our world.
Current focus: - Accelerating language models - Accelerating diffusion models - TinyML for healthcare applications
I'm fluent in both English and Japanese (JLPT N1 Certified) with intermediate Mandarin skills.
モデル効率化向けのアルゴリズムを開発する機械学習のエンジニアです。ゴールは、世界にも財布にもやさしい人工知能を作ることです。
現在の注力分野: - 言語モデルの効率化 - 拡散モデルの効率化 - ヘルスケア応用のためのTinyML
英語と日本語(JLPT N1取得)に堪能で、中国語も中級レベルです。
Experience
Profiling text diffusion language models to identify critical latency bottlenecks during training and inference phases.
Leading development and management of challenge website utilizing Google Analytics to track engagement. Profiled initial 400M parameter baseline models for participants and assisted in evaluation based on model performance after fine-tuning with 10B token datasets.
Led team of 3 Ph.D. and Masters students to design innovative methods of reducing diffusion model training time by up to 5x on average while maintaining generation quality. Algorithm lead for United States' ARPA-H THOR healthcare initiative, reducing cancer detection sensor degradation by over 70%, improving the lifetime of the sensors from only a few hours to several days (over a 10x improvement).
Led design and implementation of three full-stack research study websites using PHP/Django/React/SQL, managing databases of thousands of participant entries. Led development of competitive grants, winning $20,000+ in funding. Developed automated language similarity analysis system that reduced document comparison time by 99% (from 2-3 days to under 10 minutes).
Education
NSF Graduate Research Fellowship recipient ($150,000 value)
Top Scholar Award ($100,000+ value)
Skills
Programming: Python, Java, JavaScript, HTML/CSS, C/C++, R, PHP, Rust Machine Learning: PyTorch, TensorFlow, DeepSpeed, Weights & Biases Web & Data: React, Node, Django, Symfony, SQL, MongoDB NumPy, Pandas, Scikit-learn, Matplotlib Languages: English (Native), Japanese (N1), Mandarin (Intermediate)
Contact
Email: lwhalen7@gatech.edu
職歴
テキスト拡散言語モデルのトレーニングおよび推論フェーズにおける重要なレイテンシーのボトルネックをプロファイリング。SLURM管理サーバー上の128台のNVIDIA A100 GPUクラスターを使用して自己回帰-拡散ハイブリッドモデルの最適化を専門としています。
Google Analyticsを活用してエンゲージメントを追跡するチャレンジウェブサイトの開発と管理をリード。参加者向けに初期の4億パラメータのベースラインモデルを設計・プロファイリングし、100億トークンのデータセットによる微調整後のモデル性能に基づく評価フレームワークを開発しました。
3名の博士課程および修士課程の学生チームをリードし、生成品質を維持しながら拡散モデルのトレーニング時間を最大5倍短縮する革新的手法を設計。米国ARPA-H THORヘルスケアイニシアチブのアルゴリズムリードとして、がん検出センサーの劣化を70%以上削減し、センサーの寿命を数時間から数日間へと10倍以上改善しました。
PHP/Django/React/SQLを使用した3つの研究調査用フルスタックウェブサイトの設計と実装をリードし、数千の参加者エントリーのデータベースを管理。競争的助成金の開発をリードし、2万ドル以上の資金調達に成功。文書比較時間を99%削減する自動言語類似性分析システムを開発(2〜3日かかっていた作業が10分未満に短縮)。
学歴
NSF大学院研究フェローシップ受賞(15万ドル相当)
トップスカラー賞受賞(10万ドル以上相当)
スキル
プログラミング: Python, Java, JavaScript, HTML/CSS, C/C++, R, PHP, Rust 機械学習: PyTorch, TensorFlow, DeepSpeed, Weights & Biases Web・データ: React, Node, Django, Symfony, SQL, MongoDB NumPy, Pandas, Scikit-learn, Matplotlib 言語: 英語(ネイティブ), 日本語(N1), 中国語(中級)
連絡先
メール: lwhalen7@gatech.edu