現在の閲覧者数:

フツーって言うなぁ!

ただの備忘録

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。
  1. --/--/--(--) --:--:--|
  2. スポンサー広告

お引っ越し

こんにちは.

この度,FC2ブログからはてなブログに引っ越しすることにしました.

引っ越し先はこちらになります.

理由については向こうで書こうかと思います(別に大した理由じゃないです).
こちらのブログは,特段消す理由もないし,ソースコードの引っ越しとか面倒なのでこれはこれで色々書いたので,残しておこうと思います.

今度こそ「続けられる」ブログに出来るといいですね…

それでは,今後ともよろしくお願いします!
スポンサーサイト
  1. 2014/03/25(火) 23:17:17|
  2. その他
  3. | トラックバック:0
  4. | コメント:0

近況報告

お久しぶりです.
半年近く放置してしまいました.

半年の間に,Androidアプリリリースしたり情報セキュリティスペシャリスト取ったり就活したり第一志望にフラれたり内定受諾したり,人生的に嬉しい事もつらいこともいろいろあったのですが,一応一区切り着いたので報告しておきます.
もしヒマがあったらそのへんのことも残していきたいです.

あと,このブログですが,現在引っ越しを検討しています.
とりあえず引越し先を確保して,そちらで書いていきながら記事の移動についても考えていこうかなと.

今回はとりあえずこれで.
  1. 2014/03/15(土) 02:09:24|
  2. 未分類
  3. | トラックバック:0
  4. | コメント:0

夏休みにやりたいことリスト

先日,定期試験が終わって夏休みに入りました.
大学学部時代には考えられないほど忙しかった半期ですが,何とか乗り切れそうです…

意識が高まってる内に,夏休みにやりたいことをリストにしてまとめておきたいと思いました.



来年以降,もうこんな夏休みをとることは出来ないと思うんで,
楽しい夏休みに出来たらいいですね~
  1. 2013/08/04(日) 01:23:39|
  2. その他
  3. | トラックバック:0
  4. | コメント:0

応用情報技術者試験合格したみたいです

4月の応用情報技術者試験(AP)に合格したので,適当に何やってたか書いとこうかなと.

2012年9月~10月:


院試の傷心も冷めやらぬまま,基本情報技術者試験(FE)の勉強.


絶対合格! 基本情報技術者 2011-2012年版絶対合格! 基本情報技術者 2011-2012年版
(2011/07/30)
藤井淳夫

商品詳細を見る


上の教本はどちらかと言うと知識の詰め込み用で,実際にはIPAのウェブページに公開されている過去問を解くのがメインだったような.
春秋4年分ぐらいずつ,大体1ヶ月弱ぐらいで勉強しました.

FEはAPと比較すると,午前試験に英字3文字系の略語が出たり,経済学寄りの問題の割合が多いイメージ.
初見だとかなり面食らいますが,それでも情報系専攻ならなんだかんだで6割行けると思います.
本番で過去問と同じ問題が何問か出てきて,作問サボるなよ…とか思いながら.

問題は午後試験.
時間がかかる必修問題のアルゴリズムやプログラミング(僕はC言語を選択)を先に解いてから,残りの問題を解きにかかりました.
選択問題の中には知識不要の問題もありますが,問題読むのに時間がかかるので,できることなら少し勉強して,ハードウェア・ソフトウェア・データベース・ネットワークあたりから取っていくといいと思います.
特にハードウェア,データベースあたりは少し勉強すると比較的安定的に点数が取れたような気がします.

結果は,午前9割,午後9割弱ぐらいの点数で合格でした.

10月~2013年3月末


何もしてない.試験の申し込みぐらい.

3月末~4月20日


そろそろやらなきゃって感じでAPの勉強.


応用情報技術者 完全攻略 (LICENCE BOOKS)応用情報技術者 完全攻略 (LICENCE BOOKS)
(2010/12/23)
不明

商品詳細を見る


この本友達にもらったのでやってました.めっちゃアンダーラインとか引いててエラいです.

大体勉強の戦術は同じで,教本で知識を入れながら過去問を解く.
問題集はいりません.過去問やりきれるぐらいの実力があれば十分だと思います.


情報処理教科書 応用情報技術者 過去問題集 平成24年度秋期試験 平成25年度春期試験情報処理教科書 応用情報技術者 過去問題集 平成24年度秋期試験 平成25年度春期試験
(2012/06/19)
日高 哲郎

商品詳細を見る


↑使わなかった過去問を供養のために載せておく…

この時期は論文執筆などで時間が取れず,結局春秋3年分ぐらいしか出来ませんでした.
やっぱり先にFEをやってるとラク.主に経済学系の問題が.

午前対策.
FEとAPではAPの方が,単純に知識問題で問われるレベルも上がってるし,計算問題を解くために必要な知識も増えてる.
でも計算の難しさは変わらないので,かかる時間はそんなに変わらないと思います.
結局はインプット量の勝負なのかな~と思いました.

午後は初見から最後の演習まで難しかったです(小並感).
FEでは得点源だったネットワークが難しくて解けない…
知識問題も出ますし,結構深いところまで聞いてきます.
ネットワークとデータベース以外は,FEと同レベルか少し難しいぐらいな感じ.
しかし,マークシート型試験と記述型試験では正解率が大きく変わってきます.
実質的必修のプログラミングに加え,データベース,システムアーキテクチャ,情報セキュリティ,ITサービスマネジメントあたりが,どの回も簡単そうなので解いていた気がします.
特に情報セキュリティとITサービスマネジメントは,午前試験の内容を覚えておけば結構楽勝.

4月21日(本番)


FEの時も思いましたが,時間が短くて集中力を要する割には長丁場になる試験です.
お昼休憩はしっかりしておくといいでしょう.
僕は午前中お腹が痛くて辛かったので,無理せず休みました(笑)

あまり記憶はないですが,試験問題は標準的なレベルのものだったと思います.
自分が解いた午後試験の問題では,データベースと組み込みの問題が若干難しかったです.
でも,たぶん解かなかった他の問題の方が難しそうだったと思います.
10分ほど余らせて見直し,試験終了.

結果は,午前8割5分,午後8割強で合格でした.
事前の過去問演習とほぼ変わらなかったので,これが僕の実力なのだと思います.

まとめ


就活までに履歴書に書ける資格が増えてよかったです.

一応,APに合格すると,2年間IPAの高度試験(データベーススペシャリストとか)の試験が一部免除になるので,他の試験も受けてみたい気もします.
でも,高度試験には論述があり,実務経験がないと難しいらしいので,どうしようかなと考え中…

あと,FEとAP両方受けた身としては,情報系専攻の学生なら,学校でそれなりに勉強してれば学部時代にAPから受験するのも十分アリだと思いました.
そこそこ勉強しないとキツイですが,学部時代なら夏休みなどヒマもあるでしょう.
逆に,情報系専攻でないなら,FEから受けるのが無難だと思います(FEの下にITパスポートという試験がありますが,情報系というよりIT利用者向けなのでオススメしません).

試験問題もなかなか練られていますし,一度受験してみる価値のある試験だと思います.
  1. 2013/06/24(月) 03:14:18|
  2. その他
  3. | トラックバック:0
  4. | コメント:0

PythonとAprioriを用いて,ニコニコデータセットから相関ルールを抽出してみた

久しぶりに技術っぽいこと書いてみようと思います(汗

大学院の課題でAprioriと呼ばれる,Aprioriアルゴリズムの実装を使う機会があったので,ログを残しておきます.

Aprioriアルゴリズムと相関ルールについては,
静岡理工科大学総合情報学部知能インタラクション(金久保)研究室のHP データマイニング
にコンパクトにまとまってます.
要するに,相関ルールとは,「Aが成り立てばBも成り立つ」といったようなルールのことで,Aprioriアルゴリズムは,与えられたデータから相関ルールを効率よく抽出するためのアルゴリズムだということです.

何かいい素材はないかなと思い,2013年4月から公開開始された,NIIのニコニコデータセットを用いることとしました.
ここから各動画が持つタグの集合を取得し,それらからあるタグ集合と他のタグ集合の間の相関ルールを抽出しました.

まず,ニコニコデータセットに利用申請し,データを拝借.
結構簡単に出来ました.

ニコニコデータセット json

こんな感じで,JSON形式で動画のIDやタイトル,タグ等が得られます.

ここから,Pythonを使ってタグのデータを取り出します.
スクリプトはこんな感じ.

# -*- coding: utf-8 -*-
 
import json
 
f = open("niconico.json", "r") # ニコニコデータセット
 
output = open("niconico.txt", "w") # 結果を書き出すファイル
 
data = []
for index, line in enumerate(f):
    data.append(json.loads(line))
 
for d in data:
 
    if d["tags"] == []:
        continue
 
    string = ''
 
    for i, tag in enumerate(d["tags"]):
        if i != 0:
            string += ' '
        string += tag['tag']
    try:
        print string
        string += '\n'
        output.write(string.encode('utf-8'))
    except UnicodeEncodeError:
        pass


結果は下のようになりました.
データセットの1行1行がJSONになっているので,それらを取り出してタグをスペース区切りで並べているだけです.
各行が1つの動画が持つタグの集合を表しています.

niconico_result_20130616165210.png

ここまで出来たら,このタグデータ("niconico.tab"と名付ける)にAprioriを使って相関ルールを抽出します.
先ほどのページから"apriori.exe"(今回はWin版を使いました.なので"niconico.tab"の文字コードはSJISで)をDLし,"niconico.tab"と同じフォルダに入れます.

そして,コマンドプロンプトから

>apriori -tr -s0.5 niconico.tab -


を実行.
すると,

association_rule.png

こんな感じで相関ルールが抽出されます.

b <- a (x, y)が,
aからbへの相関ルールが支持度x,確信度yで成立することを表しています.

オプションで,枝刈りを行うための最小支持度,最小確信度や,結果の書き出し先を変更したりもできます(今回は支持度0.5%,確信度80%(デフォルト),出力先は標準出力).

タグ間の意味的な関係抽出とか,動画のクラスタリングとかに使えそうですね(研究としては既にやられてそうですけど).
ニコニコデータセットはいろいろできそうで,夢が広がります.

  1. 2013/06/16(日) 16:36:33|
  2. Python
  3. | トラックバック:0
  4. | コメント:0
次のページ
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。