Picks
18フォロー
123フォロワー
「あえてコスト削減はしない」アイリスオーヤマが工場の3割をわざと遊ばせているワケ
PRESIDENT Online:プレジデント社の総合情報サイト
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
334Picks
トヨタ提訴「2年前から調査」 日本製鉄、技術死守へ背水
日本経済新聞
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
191Picks
【急成長】誰でも「未上場株」を買えるプラットフォーム
NewsPicks編集部
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
692Picks
全世界で話題沸騰中の韓国「イカゲーム」で指摘されるパクリ度
JBpress(日本ビジネスプレス) JBpress 最新記事
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
233Picks
【直撃】日本人起業家は、アメリカ市場で勝てるのか?
NewsPicks編集部
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
874Picks
システム会社から「故障は4千年に1度」と説明…みずほ銀、他の大手行とは異なり4社に委託
読売新聞
Murata Ken国内クラウドサービス ITエンジニア
他のメディアで内容を確認しました。 例によってストレージ関係ですが、報道内容が薄いので推測を含みます。 DBサーバ用のデータディスクの故障とあり、冗長化されており、その両方が続けて壊れたとあります。 通常データ用のディスクはストレージ装置という、ディスクが何十、何百も搭載するサーバーとは別の独立した専用の機器に格納されています。 冗長化と行っても、銀行の規模になるとディスク1個では足らないので、恐らく複数個のディスクでRaidという論理的に1個のディスクに見えるようにします。(500GB×10個で5TBの1個のディスクのようになる) DB用のディスクはとにかく高速にアクセスできる必要があるため、RAIDは串刺しになるRAID0が好まれます。 一方ディスクが故障するとデータが全滅するため、ミラー用(冗長用)に全く同容量のディスクを用意します。これはRAID1と呼ばれます。 つまり、RAID0を同じくRAID0の同容量の論理ディスクでミラー(冗長)することをRAID01と呼びます。 ですが、この方式には重大な欠点があります。 どちらもRAID0であるため、1本でもディスクが故障すると、複数個の結合である論理ディスクは利用不可能になります。 今回の内容からRAID01を使っていたのではないかと?感じさせます。 この欠点を解消する方式として、RAID10があります。 これはディスク1本に対して、1本のミラーディスクを用意(RAID1)して、そのRAID1を複数結合(RAID0)にします。 若干性能が落ちますが、遥かに安全な方式なので、自分が金融系のDBでストレージ設計をしていた時は全部この方式でした。 https://xtech.nikkei.com/it/article/Watcher/20060518/238330/ ディスクの故障率のお話が出ていますが、ストレージ構築の設計時はMTBFと言う平均故障間隔で見ています。 ですが実際はストレージを構築、RAID構築時にダメなディスクはバタバタと壊れます。 経験上数百本で1個か2個です。 今回のように連続して壊れるケースは、既に稼働して年月がたっている場合で、スタンバイ側が急に稼働率が上がって負荷が高くなり壊れるパターンが考えられます。
531Picks
「させていただく」多用する人にモヤっとする理由
東洋経済オンライン
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
269Picks
苦境のヨーカドー再生に挑むヒューリックの秘策
東洋経済オンライン
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
【危機】日本の自動車エンジニアは「車」を分かっていない
NewsPicks編集部
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
922Picks
Facebookやインスタ障害の原因は「ルーターの設定変更」
ケータイ Watch
Murata Ken国内クラウドサービス ITエンジニア
NWについてはCCNA程度の知識なので、この少ない情報の補足程度に説明です。 一般的なデータセンター構成ですと、インターネットからくる通信がAS境界ルーターに流れ、その配下にあるバックボーンルーターが適切な場所に通信を振り分けます。 https://xtech.nikkei.com/it/article/COLUMN/20100824/351396/ これらはNW的に設計をするもので、DCの規模などが大きくなると動的に変更をする必要がありますね(流れてくるトラフィック量が増えるため) FaceBookのBlogを読む限り、障害箇所だけ指定しているため、何が起こったかは定かではありません。(一部の方がConfigと書かれていますが、今回の障害が構成変更とあるので、バックボーンルーターの機器入れ替えや、増設、プロトコルでのチューニングなども考えられるので、Configとよばれる設計図を古いものにすれば解決するかどうかのレベルではないかもしれません) https://engineering.fb.com/2021/10/04/networking-traffic/outage/ 弊社でもそうですが、バックボーンルーターの構成変更は、念入りな検討、検証を行って、そのうえさらに不測の事態に備えてrevert(元の構成に戻すこと)なども準備したりします。 ちなみにバックボーンルーターはそうそう実物を見られることはISPやサービスプロバイダなどでしかないともいます。 こんな機器なのでご興味があればリンク先をご覧ください。(ちょっと想像されているものと違って面白いと思います) https://cloud.watch.impress.co.jp/img/clw/docs/1064/660/html/interop07-00.jpg.html
198Picks
【ドイツ】アンダー40が躍進。「若返り国会」が政治を変える
NewsPicks編集部
Murata Ken国内クラウドサービス ITエンジニア
このコメントはアカウントを作成すると読むことができます。
373Picks
NORMAL