データサイエンティスト 2、3日目

こんばんは

またしてもコロナ感染者の最高記録。。。第3波ですね。こんなに対策しても、感染者を増やすウイルスなんて恐怖ですね。


さて、本日はデータサイエンティストとして勤務して2、3日目の様子について書きます。


ずーーっと、研修という名の自学自習をしている漢字なのですが、私的には最高です。今まで、仕事(NTT)終わりにやっていたことを、業務中にできるなんてめちゃくちゃ良いことです!参考書や、有料サイト等もみることができ、またわからない場合は周りに聞くことが出来るので、自分で自習できる人には最高です。最高、最高、最高って連続して申し訳ございません。。。入社前はテックアカデミー等に通おうと思ってましたが、一切不要だと思いました。お金を払って、プライベートの時間を削って勉強するよりも、お金を貰って、業務中にやる方が良いに決まってます!

※テックアカデミーの評判が最近悪いとも聞いております。。。



肝心のやってること、オススメの参考については別回で紹介します。転職で迷っている方いましたら、相談ください!



データサイエンティスト 2、3日目

こんばんは

またしてもコロナ感染者の最高記録。。。第3波ですね。こんなに対策しても、感染者を増やすウイルスなんて恐怖ですね。


さて、本日はデータサイエンティストとして勤務して2、3日目の様子について書きます。


ずーーっと、研修という名の自学自習をしている漢字なのですが、私的には最高です。今まで、仕事(NTT)終わりにやっていたことを、業務中にできるなんてめちゃくちゃ良いことです!参考書や、有料サイト等もみることができ、またわからない場合は周りに聞くことが出来るので、自分で自習できる人には最高です。最高、最高、最高って連続して申し訳ございません。。。入社前はテックアカデミー等に通おうと思ってましたが、一切不要だと思いました。お金を払って、プライベートの時間を削って勉強するよりも、お金を貰って、業務中にやる方が良いに決まってます!

※テックアカデミーの評判が最近悪いとも聞いております。。。



肝心のやってること、オススメの参考については別回で紹介します。転職で迷っている方いましたら、相談ください!



データサイエンティスト1日目

新年明けましておめでとうございます!

2020年はコロナもあり、あっという間に過ぎた感じがします。そして2021年!さらなる激動な年になると思いますが、何より健康を第一に頑張りましょう。


さて、そんな私は今日がデータサイエンティストとしてのスタートになります。新しい会社に出社してまいりました。初心者がデータサイエンティストとして採用されても、大半はデータ加工(エクセル加工含む)を任されると思いきや、色々なことを経験させて貰えそうです。特に聞いてて興味があったのが、最先端の論文を読んで実装することです。自分でモデルを構築する際に、試行錯誤することが最大の学びになると思っています。原著論文に触れ、データサイエンティストのトップオブトップになれるように頑張ります!!!


明日から、データサイエンティストの業務について書きたいと思います。プログラミングも未経験だけど、データサイエンティストになれるの?と思ってる方がいらっしゃったら読んで貰えると嬉しいです。どうぞ宜しくお願いします!!!

データサイエンティスト1日目

新年明けましておめでとうございます!

2020年はコロナもあり、あっという間に過ぎた感じがします。そして2021年!さらなる激動な年になると思いますが、何より健康を第一に頑張りましょう。


さて、そんな私は今日がデータサイエンティストとしてのスタートになります。新しい会社に出社してまいりました。初心者がデータサイエンティストとして採用されても、大半はデータ加工(エクセル加工含む)を任されると思いきや、色々なことを経験させて貰えそうです。特に聞いてて興味があったのが、最先端の論文を読んで実装することです。自分でモデルを構築する際に、試行錯誤することが最大の学びになると思っています。原著論文に触れ、データサイエンティストのトップオブトップになれるように頑張ります!!!


明日から、データサイエンティストの業務について書きたいと思います。プログラミングも未経験だけど、データサイエンティストになれるの?と思ってる方がいらっしゃったら読んで貰えると嬉しいです。どうぞ宜しくお願いします!!!

データサイエンティストの夢

こんにちは

今年も残すところ4日ですね。今年はコロナ騒動で、これといった思い出はありません。ただし、コロナだからこそ自分の時間が増え、仕事に向き合え、転職できたと思っています。


そんな本日は、データサイエンティストとしての夢について語ります。データサイエンティストに関する記事を約1ヶ月書いてきましたが、キャリアとしてはスタートしておりません。来年の1月より働き始めます。働いてもいないのに、夢を語るのも変な気がしますが笑い話として読んで下さい。


「3年以内にデータサイエンティストのフリーランスとして年収500万を稼げるようになる」これが私の夢です。フリーランスとしてというのが肝で、将来は田舎でのほほんと暮らしたいと思っています。その時にリモートワークで自分の好きな時間に仕事できればと思っています。年収500万ならば現職(NTT)の今の給料くらいでしたが、それをフリーランスで稼ぐとなるとすごく難しいと思っています。自分で仕事を取ってくるためには、営業力はもちろんですが、定量的なスキル証明が必要になります。新しい会社ではSESでお客様先に常駐しますが、その際にどんなことを求められて、何を提示できれば自分の価値を証明できるようになるのかを考えながら働きたいです。


年収300万、激務データサイエンティストとして来月よりキャリアスタートしますが耐え凌ぎ頑張ります。ブログもちゃんと更新しますので応援のほど宜しくお願いします。

NTTを退社

こんばんは

コロナで時短営業を強いられてにも関わらず、開いてるお店は結構ありますね。仕方ない、、、


私事ですが、昨日NTTを退社しました。新卒から働いてただけあって、最後はなんだか寂しい気持ちになりました。後輩、同期、先輩、上司が送別会も開いて頂き感謝です。ありがとうございました(関係者は見てないと思いますが、、、笑)


NTTにいて学べたこと、良かったこと、悪かったことについて振り返ってみます。

◇学べたこと

 ・ネットワーク知識

  →アドレス設計、ルーター知識等の幅広い知識を学べました。話題のクラウドについても会社に奨励金(五万)を貰いながら「AWSソリューションアーキテクトアソシエイト」も取得しました。

 ・調整能力

  →仕事はチーム、組織で動いていくと痛感しました。そして、案件をこなしていくなかで社内調整力はかなり身につきました。説得材料を集めたり、多少無理にお願いしたりするなど、相手に合わせて動いていく力がついたと思います。


◇良かったこと

 ・福利厚生

  →特に休みが多くて、働きやすい会社No.1だと思います。有給を20日/年を必ず消化しないといけない会社なんてほかにあるのでしょうか。仕事よりプライベートを充実させたい人にはオススメです。

 ・人が優しい

  →みんな余裕があって優しいです。たまに派遣さんでやばい人がいますが、基本みんな優しいです。


◇悪かったこと

 ・評価が一律

  →評価は一律なので、もちろん賞与に差は出ません。サボりたい人にはオススメですが、頑張りたい人にはもどかしさがあるかもです。

 ・無駄が多い

  →決裁のための書類が非常に多いです。ルールも形骸化しており、あって遵守するものの個々人はその中身を理解しておりません(書類はコピペです)


ざっくりと書いてみました。良かった点、悪かった点はありますが、私としてはおすすめです。非常にコスパの良い会社だと思います。


最後に皆さんの興味のある給料ですが入社5年目まで下記の感じです。

基本給25万円+残業代5万円

※残業代の時給は2000円です。平均20時間程度

ボーナス50万円

※ボーナスは年2回あって、評価で多少の差はありますが(2万〜7万程度)


よって、年収は400万円で手取りは300万円程度です。毎月の手取りは20万円くらいなので贅沢は出来ません。。。


なんか気になる点があれば質問ください!ありがとうNTT!!!

webスクレイピング(Python)

こんばんは

寒いので湯たんぽを買いました。他の暖房器具と違って優しい暖かさを感じるのは私だけでしょうか。

 

さて、本日は「スクレイピング」についてお話します。

スクレイピングとは、webサイトから任意の情報を抽出する技術のことを指します。そもそもインターネットは宝の山と言われており、有益な様々なデータが散在しております。お馴染みの機械学習では、データ数が非常に大切になります。もし人がデータを1つ1つインターネット上で見つけ、抽出し、CSVファイルとして落とし込むことをしたら、かなりの時間がかかってしまいます。しかし、スクレイピングの技術を使えばコンピュータがwebサイトの解析から抽出まで全て自動で実施してくれます。

 

そんな魔法のようなツールがPythonでは「BeautifulSoup」というライブラリーで容易されています。基本的なコード等は割愛しますが、「BeautifulSoup」で実現できることは大きく2つです。①HTMLの解析②データの抽出

最終的にwebページ上の該当データを抽出するためには、webページを構成しているHTMLの解析が必要です。これに関しては「html.parser」という一文だけで完了します

(コンピュータがwebページを読み込んだよ!ってこと)。その次に、HTMLタグ(h1等)、id、CSSセレクタを用いて該当のデータを抽出できます。

 

スクレイピングをよく利用されるのが為替情報の取得です。例えば、アメリカドル/円を抽出するためには

soup = BeautifulSoup(req.urlopen(URL情報), "html.parser")

price = soup.select_one(".stockPrice").string

print(price)

 

僅か3行で抽出することが出来ます。

今後仮に、1時間毎にアメリカドル/円を抽出して記録する作業を実施する場合に、上記に「Scheduleライブラリー」を用いることで一瞬でコードを書くことが出来ます。

 

プログラミングを実施してみて思ったことはライブラリーの多さです。何か作りたいと思った時に、それを簡単にしてくれる便利ツール(ライブラリー等)が無数にあります。本日はスクレイピングを実施するために使う「BeautifulSoup」というライブラリーを紹介しましたが、次回以降も他のライブラリーを紹介させていただきます(なるべくコードを書かずにシンプルに)

 

では今日はここまでです。最後まで読んで頂きありがとうございます。