10000円以下で買った 24 インチ Full HD 液晶ディスプレイ KOORUI 24N1 の話

Covid-19 の影響で在宅勤務が本格化したタイミングで、家族からの影響を受けづらい場所に仕事環境を構築する必要が生じた。
このときに、27インチの液晶ディスプレイを買ったときに使うのをやめたけどなんだか捨てきれず、部屋の中に居座っていた BENQ G2400W と BENQ G2400WD というおよそ今から 15 年前に発売された UWXGA の TN ディスプレイを仕事環境で再利用することにした。
ただ、15 年前の時点ですら安価であった TN 液晶となると画面もなんだかぼやぼやして見づらく、ボタン類が壊れたり HDMI 端子が壊れたりで、使い続けるのがいい加減困難になってきた。なので、一念発起して仕事環境で使っている液晶ディスプレイを新調することにした。

時代が時代なので 4K ディスプレイを 2 枚、仕事環境にも導入することについても検討したけど、以下の理由で断念した。

  • 仕事で使っているノート PC は 2 枚のディスプレイに 4K 出力できるが、一方は 30Hz までしか出せないという制限がある
  • google 日本語入力は、拡大率が異なるディスプレイが同時に繋がれている時、変換候補の表示を正しい位置に表示できない。ノートPC についている画面は拡大率 100% で使っているが、4K ディスプレイは 175% あたりで使う可能性が高い。

なので、最低限仕事で使えればいいやと思ってとりあえず安価な Full HD ディスプレイを探した。
Amazon を眺めながら、だいたい 1 台あたり 15000円くらいが相場なのかなーと思っていたところ、KOORUI 24N1 という異様に安いディスプレイを見かけた。
なんと 9,299円(税込み) だった。
この値段だったら失敗しても許せるなーと思って、2台買った。値段は結構日によって違う気がするから、気になったひとは安いタイミングで買うのがいいと思う。

で、使い始めて 2 週間位経った。結果から言えば、自分の利用範囲では不満らしい不満がない。
15年前の TN 液晶よりも遥かに画面が見やすくて良い。
利用方法としては下記範囲では問題がなかった。以下は全て端末本体にイヤホン端子がついており、音はここから聞くことができる。

  • 仕事用のノートPCをつないで仕事につかう
  • Nintendo Switch をつないで使う
  • 個人用の Macbook Pro をつないでなんか色々するのに使う

ただ、このディスプレイには、最近の液晶ディスプレイにはほぼ標準でついている、スピーカーやイヤホン端子がない。
なので、例えば Playstation 5 のような、本体にイヤホン端子がなく、音は HDMI 端子経由で出力されたものを聞くといった利用方法が想定されているものではそもそも音を聞く方法がなくなってしまうので気をつけるといいと思う。

core i7-12700 を CPU に使ったPCを組んだ

あけましておめでとうございます。
最近、メインで使っている Windows のデスクトップ PC で曲を書いているときに CPU の不足を如実に感じるようになってきたので、PC を新調しました。
前回、前々回購入したデスクトップ PC は、 mouse computer で買って、出来合いのデスクトップ PC に SSD やら GPU やらのパーツを足して使っていました。
今回は、core i7-12700 という CPU がどんなもんなのか気になって仕方なかったので、パーツごとに自分で買って、いわゆる自作 PC を作りました。

今回使ったパーツ類

最後に PC を自作したのは、およそ 8 年前で、そのときには celeron j1900 ベースの録画マシンを作りました。
その頃と比べると、最近は CD-ROM/DVD-ROM ドライブはそもそもつけなかったり、HDD/SSDも m.2 でマザーボードに直接つけるようになっていたりと、配線が随分少なくなり最近は随分手軽になったんだな、という印象を持ちました。

主目的は先に書いたように CPU の性能不足の解消なのですが、CPU の新しい機能に興味があってそれがどのように動くかを見るというのもサブの目的としてある。というのも今回選んだ core i7 12700 には高性能な Performance-cores と高電力効率の Efficient-cores が乗っており、Windows 11 ではこれらをうまいこと使い分けることで高性能を実現しているらしい。
当然 Linux にも今後類似の機能が実装されていくことになるわけなので、その進化をソースコードレベルで負いつつ実感してみたいなと思っている。

というわけで、CPU の機能を直接叩くために、久々に VM 上ではなくベアメタルで Linux を動かす必要があるので、すごく久しぶりに、 Windows と Linux の dual boot 環境も作ってみるつもり。
楽しみだなぁ。

4K モニタを 2 枚買った

27 インチの 4K モニタを買いました。
LG の 27UL650-W というモデルで、1枚あたり4万3千円くらいでした。
電車が人身事故で止まってしまい、仕方ないなといって降りた駅近くにあった電器屋さんで見かけて、ベゼルも狭くてシンプルな出で立ちだし、これいいんじゃないか?って思ってこれに決めました。

https://www.lg.com/jp/monitor/lg-27UL650-W

これまでは、12年ものの 24 インチの WUXGA のモニタを 2 枚、縦にモニターアームを使って積んでいましたが、今回同じように縦に積みました。
12年も使ったんだから、もう流石に新調していいだろうって。

モニターアームは、24 インチから 27 インチに大きくなったんだから、モニターアームも長いものにしなきゃと思ったんですが、実際には長くする必要がなくて、上の方にはみ出してしまってなんか不格好になりました。
これは高さが 70cm あるんですが、60cm くらいで充分足りました。これはちゃんと計算すれば事前にわかったことなので、反省。

高解像度のディスプレイを使ってみて思ったのだけど、パソコンの文字が読みづらいと感じる一端は、解像度の不足だったかもしれないなーって思った。解像度が高いと単純に文字が読みやすくなる。

MacOS で使ってみた

最近 Macbook Pro 13 を買ったので、thunderbolt から hdmi への変換を 2 つ買って、2 枚のモニタに表示してみました。
仮想解像度は、2560 x 1440 くらいが、自分にはちょうどよかったです。
確か、27インチの5KディスプレイのiMacも仮想解像度の横幅が2560だったはずだなので、作ってる側も想定しているくらいの密度なんだろうなーと勝手に思いながら使っている。
画面に出せる情報量が増えて、文字もきれいで読みやすくなったので大満足。

主にブラウザ、vscode、IntelliJ、terminal くらいしか使っていないので、特段困ったことはありませんでした。
昔から高解像度モニタに対応しているからストレスなく使えるなーって感じ。

Windows 10 で使ってみた

Scaling は 175% にして使ってみた。
ブラウザ、vscode、IntelliJ あたりはまともに動く。

Studio Oneもまともにうごく。一部のvstプラグインについては、Studio One 側の機能であるスケーリングがまともに効かない。
普段から使用頻度が高いVSTがうまく動かなかったりするのでそこそこストレスフルだけど、まぁ許せる範囲。

Arch Linux(xfce4) で使ってみた

上記 Windows 10 にインストールされた VirtualBox 上に作った Arch Linux の VM に、以前から xfce4 環境を構築していたものの設定を変更。
設定を変更したのは下記URLに記載のある1箇所だけ。何の問題も生じていなくていい感じ。

https://wiki.archlinux.jp/index.php/HiDPI#Xfce

ノートPCを新調したりVPSを乗り換えたりした

なんか、最近、普段家で使ってるコンピューター周りを色々変えたのでそれについて書いてみる。

ノートPCを新調した

2014年頃のmacbook air 11inch から、色々悩んで2019年のmacbook pro 13inchのusb c端子が4つついてる方に乗り換えた。VMなどをそれなりに動かすことになるだろうと考え、メモリは16GB、SSDは512GBにした。
新調の一番の理由は、コタツを導入したのでコタツで色々できるようにしたかったけど、それには5年前のmacbook airでは主にメモリの量を中心に辛いと感じることが増えてきたこと。
新調にあたっては、現行の各種macbookはusb cしかついていないことが気に食わず、windows のノートPCにしようかなとも思ったのだけど、そうすると、ctrl + p,n,f,b あたりでのカーソルの移動ができない場面が増えてストレスを溜めるのだろうなぁと思ってしまったので、結局macにしてしまった。

usb cについては、実はあんまり外に何かを付けて使うということ自体がないけれど、もしもつけたとしても、電源やら画面やらを1本のケーブルにまとめられて、今はもう便利だとしか思わない。
昔は、usb cからいろんな端子に変換するための変換器みたいなのの種類が少なかったり値段が高かったりで大変だったみたいだけど、2019年だともうそんなでもないのかなと思った。

そんな感じで、家に帰ってきてもコンピューターいじるときは机と椅子に座ってガッツリと向き合うしかなかった状態が、こたつで緑茶でも飲みながらのんびりと色々する、みたいに変わった。

あと、結構前だけどテレビにkindle fire tv stickを刺した。なので、家族と一緒にスマホで撮った写真をみたり、webページを一緒に眺めたりといったときも、kindle fire tv stick に Air Playで接続してさっさとテレビに画面を表示できるようになった。これが想像以上に便利で、テレビは見るだけのものから、家族の間で情報を共有するための道具に変わってきたな、みたいな意識の変化があった。

windowsのノートPCを選んでいたら、Air Playではなくmiracastで画面を表示することになると思うんだけど、miracastについては使ったことがなく、どの程度使い勝手が良いものなのか知らない。実際のところどんな感じなんだろうか。

VPS乗り換えた

かれこれ7年くらい、sakuraのVPSを何度かインスタンスのタイプを乗り換えつつメインで使い続けてきたけど、支払いが月極なので、遊ぶ際にインスタンスを新しく作ったり破棄したりといったことがやりづらくて辛いという理由で、色々お試しするときののVPSについては別の海外のVPS業者の日本リージョンを併用している状況が1年ほど続いていた。
(sakuraにおいて、インスタンスを上げたり壊したりといった用途には、おそらくsakuraのVPSではなくsakuraのクラウドが想定されている。だから、自分がsakuraのVPSがターゲットとする客ではなくなってしまったので辛いという話であって、sakuraのVPSのサービス内容が良くないというわけではないと思う。)
海外VPSを1年使って、これと言ったトラブルも特になかったため、sakuraの方は引き上げ、海外VPSの方に一本化した。
もともとsakuraにメモリ2GBのインスタンスが1台、海外VPSの方にメモリ1GBのインスタンスが1台あったが、これを4GBメモリの海外VPSに1台にまとめた。
値段的にはsakuraのメモリ2GBと海外VPSのメモリ4GBが同じ価格だったので、月々の支払いは減ることになったし、管理対象も減ったし、いい感じだなーと思っている。

引っ越しにあたり、勉強も兼ねて、ホストOSの上にソフトを色々インストールするのは控え、全部dockerコンテナの中に入れた。全部のサービスをdocker-composeで管理するようにした。
結果として、自分がどういうサービスを立てているのかということが明確になって、覚えておかなきゃいけないことが減ったので良かったなぁと思った。

あ、なので、このblogも実はお引越ししたあとだったりします。なんとなくテーマも変えました。

k8s のクラスタを組んでその上に全部移すということも考えたけれど、自分が動かしっぱなしにしておきたいアプリケーションの総量に対して、k8s 自体の主にメモリに対するオーバヘッドが大きすぎてなんかもったいない気がしたというのと、スケールアウトしなきゃいけないほど上で動くアプリケーションが増えたり減ったりするわけでもなく、コンテナ冗長化をかっこよく行う必要も特にないなーと思ったので、シンプルにdockerとdocker-composeで全部済ませてしまうことに今回はした。
k8s がこなれてきて、オーバヘッドがあんま気にならないくらい小さくなってくるというか、オーバーヘッドが小さい構成も手軽に組めるように状況が整ってきて、自分自身がそれを使いこなすノウハウがこの先数年で溜まったら、k8sベースにすることもあるのかもしれない。と思う。

なんかまぁ、そんな感じです。
全部コンテナに入って取り回しが良くなったので、調子よく色々やっていきたいなー。

複数マシン間で、atomで取ったメモを同期するための環境を整えた

自分は、いろんな作業をするときに、人に報告したり、twitterに書いたりするほどでもないことを、atomを使ってmarkdown形式でメモをとりながら進めています。
1台のマシンでメモを取るだけなら、シンプルでいいんですが、VMを含め、複数台のマシンを行ったり来たりしながら作業するとなると、これらの間でどうやってメモを同期するか、という点が悩ましくなってきます。
今回のエントリは、どうやってatomを用いて、複数のマシンでどうやってメモを同期させるか考えたっていう、そんなお話。

TL;DR

  • atomのsync-on-saveはとても良い
  • WindowsとLinuxだとパッチ当てないと動かない(2017年10月12日時点)

gitでメモの同期をとりたい。でもコマンド打つの、面倒だな。

ファイル単位で同期を取る仕組みというのは、atomには色々あって、たとえばRemote-FTPというパッケージで実現することができます。
最初はこれを使っていたんですが、同期の粒度がファイルだと、複数のマシンで同じファイルを変更したときに、どちらかがどちらかをうっかり上書きして、せっかく書いたメモを失う、なんてことになりそうだなと思いました。
実際に上書きをしてしまったことはなかったものの、そういうことが起こりうるということを意識しなければならないのがなんとなくストレスでした。

だから、ファイルよりも小さい単位で同期を取りたい。
そうだ!僕達には、gitがある!gitを使おう!と考えました。

でも、gitも、コミットメッセージを書いたり、共有のためにpushしたりと、やらなければいけないことが多くてちょっと面倒です。

sync-on-save というパッケージに面倒事を引き受けてもらう

どうせ、自分が適当に見るメモなんだから、コミットメッセージなんて適当に自動でつけてくれればいいし、pushも勝手にやってくれればいいのに。
そんなパッケージないかなー?と探してみたところ sync-on-saveというパッケージがありました。

このパッケージを使って救われました。本当に欲しいものそのものでした。
コマンドパレットからEnable Syncすると、ファイルを保存したタイミングでgit commitとgit pushを自動でしてくれます。
あとなんか他の場所で同じファイル編集してたらmergeもしてくれる。

本当に便利だ。素敵だなぁ。

LinuxとWindows向けにバグがあって動かなかった→なおした

バグを見つけたので直しました!バージョン0.1.5からは何も考えずにATOMのパッケージをインストールすれば使えるようになりました!
みんな使ってみてね。

2017年10月12日時点でダウンロード可能な、バージョン0.1.4にはちょっとしたバグあり、WindowsとLinuxでは動きません。
直したのでプルリク投げてみるつもりです。

差分は1行なので、これ読んで今すぐ使ってみたい!って思った人は、sync-on-saveをインストールした上で、コードを直接いじるのが楽そうです。
コミットの情報はここにおいときますので参考にしていじってみてね。

https://github.com/sirrow/sync-on-save/commit/7df50d7094156b9fd030ab698a6ff69a680177af
おしまい。

本文に書ききれなかったけど書きたかった事

sync-on-saveを作った人について

sync-on-saveを作った人すごいなぁ、ありがたいなぁ。プルリクも投げなきゃいけないし、どんな人なんだろう?って思ったので調べてみたら、 Hajime Morita さんでした。
そういえば、rebuild.fm 聞いたことないし、今度聞いてみよう。

昔はssh + screen + emacsでメモを取ってた

自分は一昔前は、VPS上でscreenを動かして、その上で動かしたemacs -nwに、色んなマシンからsshでログインした上でattachしてメモを取ってました。
これはこれで悪い方法じゃなかった気がします。手軽だしね。ただ、ネットワークから切断されるとつらいんだこれ。
gitなら手元にコピーあるからネットワークなくても編集できるしね。そんなところが素敵。