Zobrazeno 1 - 10
of 24
pro vyhledávání: '"Yamazaki, Masafumi"'
Autor:
Imamura, Satoshi, Yamazaki, Masafumi, Honda, Takumi, Kasagi, Akihiko, Tabuchi, Akihiro, Nakao, Hiroshi, Fukumoto, Naoto, Nakashima, Kohta
Quantum computer simulators running on classical computers are essential for developing real quantum computers and emerging quantum applications. In particular, state vector simulators, which store a full state vector in memory and update it in every
Externí odkaz:
http://arxiv.org/abs/2203.16044
Autor:
Farrell, Steven, Emani, Murali, Balma, Jacob, Drescher, Lukas, Drozd, Aleksandr, Fink, Andreas, Fox, Geoffrey, Kanter, David, Kurth, Thorsten, Mattson, Peter, Mu, Dawei, Ruhela, Amit, Sato, Kento, Shirahata, Koichi, Tabaru, Tsuguchika, Tsaris, Aristeidis, Balewski, Jan, Cumming, Ben, Danjo, Takumi, Domke, Jens, Fukai, Takaaki, Fukumoto, Naoto, Fukushi, Tatsuya, Gerofi, Balazs, Honda, Takumi, Imamura, Toshiyuki, Kasagi, Akihiko, Kawakami, Kentaro, Kudo, Shuhei, Kuroda, Akiyoshi, Martinasso, Maxime, Matsuoka, Satoshi, Mendonça, Henrique, Minami, Kazuki, Ram, Prabhat, Sawada, Takashi, Shankar, Mallikarjun, John, Tom St., Tabuchi, Akihiro, Vishwanath, Venkatram, Wahib, Mohamed, Yamazaki, Masafumi, Yin, Junqi
Scientific communities are increasingly adopting machine learning and deep learning models in their applications to accelerate scientific insights. High performance computing systems are pushing the frontiers of performance with a rich diversity of h
Externí odkaz:
http://arxiv.org/abs/2110.11466
Autor:
Mattson, Peter, Cheng, Christine, Coleman, Cody, Diamos, Greg, Micikevicius, Paulius, Patterson, David, Tang, Hanlin, Wei, Gu-Yeon, Bailis, Peter, Bittorf, Victor, Brooks, David, Chen, Dehao, Dutta, Debojyoti, Gupta, Udit, Hazelwood, Kim, Hock, Andrew, Huang, Xinyuan, Ike, Atsushi, Jia, Bill, Kang, Daniel, Kanter, David, Kumar, Naveen, Liao, Jeffery, Ma, Guokai, Narayanan, Deepak, Oguntebi, Tayo, Pekhimenko, Gennady, Pentecost, Lillian, Reddi, Vijay Janapa, Robie, Taylor, John, Tom St., Tabaru, Tsuguchika, Wu, Carole-Jean, Xu, Lingjie, Yamazaki, Masafumi, Young, Cliff, Zaharia, Matei
Machine learning (ML) needs industry-standard performance benchmarks to support design and competitive evaluation of the many emerging software and hardware solutions for ML. But ML training presents three unique benchmarking challenges absent from o
Externí odkaz:
http://arxiv.org/abs/1910.01500
Autor:
Yamazaki, Masafumi, Hayashi, Tatsunori, Farahani, Hamed Farmahini, Rangwala, Ali S., Sakaue, Hirotaka
Publikováno v:
In International Journal of Thermofluids August 2023 19
Autor:
Yamazaki, Masafumi, Kasagi, Akihiko, Tabuchi, Akihiro, Honda, Takumi, Miwa, Masahiro, Fukumoto, Naoto, Tabaru, Tsuguchika, Ike, Atsushi, Nakashima, Kohta
There has been a strong demand for algorithms that can execute machine learning as faster as possible and the speed of deep learning has accelerated by 30 times only in the past two years. Distributed deep learning using the large mini-batch is a key
Externí odkaz:
http://arxiv.org/abs/1903.12650
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Atsushi Ike, Tabuchi Akihiro, Yamazaki Masafumi, Masahiro Miwa, Akihiko Kasagi, Takumi Honda, Naoto Fukumoto, Tsuguchika Tabaru, Kohta Nakashima
Publikováno v:
HPDC
Distributed deep learning using large mini-batches is a key strategy to perform the deep learning as fast as possible, but it represents a great challenge as it is difficult to achieve high scaling efficiency when using large clusters without comprom