JP2010231782A - 機能自動化のための方法およびシステム - Google Patents

機能自動化のための方法およびシステム Download PDF

Info

Publication number
JP2010231782A
JP2010231782A JP2010056973A JP2010056973A JP2010231782A JP 2010231782 A JP2010231782 A JP 2010231782A JP 2010056973 A JP2010056973 A JP 2010056973A JP 2010056973 A JP2010056973 A JP 2010056973A JP 2010231782 A JP2010231782 A JP 2010231782A
Authority
JP
Japan
Prior art keywords
test
automation
function
code
improvement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010056973A
Other languages
English (en)
Other versions
JP2010231782A5 (ja
Inventor
Nagaraja Doddappa
ドダパ ナガラジャ
David Oreper
オレパー デイビッド
Jonathan D Vincent
ディー ビンセント ジョナサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Data System Corp
Original Assignee
Hitachi Data System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Data System Corp filed Critical Hitachi Data System Corp
Publication of JP2010231782A publication Critical patent/JP2010231782A/ja
Publication of JP2010231782A5 publication Critical patent/JP2010231782A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3664Environments for testing or debugging software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/10Requirements analysis; Specification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Abstract

【課題】ソフトウェア開発ライフ・サイクル(SDLC)プロセスを能率化して開発チームの各メンバーにかかる綜合的な負担を軽減しながら製品の綜合的な品質を向上させる。
【解決手段】機能自動化プロセスは、好ましくは、多数のハイレベルなステップまたは段階を含む。第1ステップ(段階)は機能キックオフ100である。次いで、ハイレベル・レビュー200が行なわれる。ハイレベル・レビュー・ステップの次が詳細レビュー・ステップ300である。詳細レビュー・ステップの次が開発/デバグ・ステップ400である。最終ステップ500でプロセスが完了する。
【選択図】図1

Description

発明の背景
本発明はソフトウェア製品または機能の設計および開発にソフトウェア試験自動化を組み込む技術に係わる。
公知技術の説明
ソフトウェア開発ライフ・サイクル(SDLC)はソフトウェア工学における公知のコンセプトであり、ソフトウェア・システムを作成または変更するプロセスに関連する。SDLCは典型的には事業体およびその従業員(またはコンサルタント)によって、情報システムを開発することを目的に実行される論理プロセスであり、通常、複数のステップ、例えば、プランニング、分析、設計および実行のステップを含む。典型的なソフトウェア開発ライフ・サイクルはそれぞれのステップの出力が次のステップへの入力となる一連の状態を含む。代表的なシーケンスは下記の通り:即ち、プロジェクトの定義、ユーザー要求の定義、システム要件の定義、分析および設計、(コーディングおよび試験を含む)システム設定/プロトタイピング、および保守である。
従来、自動化ソフトウェア試験は組織的な目標事項ではなく、品詞保証(QA)チームによるその場限りの自動化試験の副産物である。このような試験の開発は反復性のあるプロセスを辿るものではなく、かかるソフトウェア試験は伝統的にソフトウェア開発チーム内の個人の主要な役割と見做されてもいない。従って、ソフトウェア・エンジニアリング産業の分野において、信頼でき、反復性のある結果を出す試験自動化を提供するための具体的な方法は全く確立されていない。
さらに、自動化試験システムおよび方法は下記の代表的な特許から明らかなように、当該技術分野において周知である:米国特許第6,662,312号、第6,301,701号、第6,002,869号、第5,513,315号および第5,751,941号。公知の試験フレームワークもSTAF(ソフトウェア試験自動化フレームワーク−Software Testing Automation Framework)のようなソリューションを含む。
ここに開示するのはソフトウェア・アプリケーションの手動試験を自動化するためのソフトウェアに基づくビジネス・プロセスである。「機能自動化」プロセスは開発チームのそれぞれのメンバーが果すべき具体的な役割と責任を明確にし、開発のそれぞれのステップが良く見えるようにする。これによって、予測可能で、高品質且つ反復性のある結果が得られる。このプロセスでは、ソフトウェア・ツールを利用することによって自動化試験を実行し、分析のための試験結果を収集する。
機能自動化プロセスは機能または製品を開発する過程において、自動化エンジニアを関与させ、ソフトウェア試験自動化の内容を定義し、具体化し、検討する、という段階を追った指令を規定する。このプロセスは自動化エンジニアの役割と他の資源をソフトウェア開発ライフ・サイクル(SDLC)に一体化する。企業(およびその経営陣)はまず専門の自動化チームを創設し、必要または所望なら、資源を割り振り、このチーム内で専門家を育てる。機能自動化チームは好ましくは製品/機能チームと協働するもとによって、後者が自動化エンジニアの役割をより深く理解し、製品/機能の所要条件、設計および具体化活動の透明性をさらに高めるようにする。機能自動化プロセスは連携する品質保証(QA)チームの試験スクリプト作成、自動化フレームワーク、試験設計の作成、および試験
コードの具体化および保守の責務を(機能自動化チームに)肩代わりしてもらえるようにする。本発明のプロセスによれば、すべての利害関係者は試験の実施前に自動化フレームワークおよび試験設計のレビューに関与し、フレームワークの反復使用可能性と試験の安定性を高めることができる。
好ましくは、機能自動化プロセスを、それぞれが1つまたは2つ以上の機能自動化活動を含む一組の外部レビュー・チェックポイントによって規定する。チェックポイントは好ましくは:機能キックオフ、ハイレベル・レビュー、詳細レビュー、開発およびデバギング、および統合/試験スイート実行を含む。機能開発ライフ・サイクルの終盤近くまでソフトウェア自動化が始まらない公知技術とは異なり、本発明の技術では、自動化の条件および設計がもっと早い段階で始まる。
具体的には、本発明のアプローチを採用すれば、機能自動化プロセスは製品/機能開発の早い段階で始まり、自動化活動はサイクルの後段ではなくSDLC全体に一体化されるようになる。このプロセスは自動化チーム内外の協調効果を高め、自動化開発フレームワークを改良し、自動化開発ライフサイクルを短縮し、コードの品質および保全性を高め、コードおよび試験の文書化を改善し、自動化チームの新人メンバーの訓練時間を短縮する。
以上、本発明の主な特徴を記述した。これらの特徴は例示にすぎない。開示した発明を異なる態様で、または後述のように変更を加えることによって他の多くの有益な結果をえることができる。
本発明の詳細と利点を添付の図面を参照して後述する。
図1は本発明の一実施態様による機能自動化プロセスのフローを示すプロセス・フロー・ダイアグラムである。 図2は機能自動化プロセスにおいて使用するための代表的な自動化ソフトウェア試験フレームワークを示す。 図3は機能キックオフ・ステップのコンポーネントの局面を示すプロセス・フロー・ダイアグラムである。 図4は詳細レビュー・ステップのコンポーネントの局面を示すプロセス・フロー・ダイアグラムである。 図5は機能キックオフ・ステップのコンポーネントの局面を示すプロセス・フロー・ダイアグラムである。 図6は開発/デバグ・ステップのコンポーネントの局面を示すプロセス・フロー・ダイアグラムである。 図7は最終ステップのコンポーネントの局面を示すプロセス・フロー・ダイアグラムである。
ソフトウェア工学の基本用語は周知であるとの前提で以下に説明する。本発明の機能自動化プロセスは、好ましくは、図1に示すような多数のハイレベルなステップまたは段階を含む。各ステップのコンポーネントの局面を以下に詳細に説明および定義するとともに、図3乃至図7に図解する。第1ステップ(段階)は参照符号100で示す機能キックオフである。次いで、ステップ200に相当するハイレベル・レビューが行なわれる。ハイレベル・レビュー・ステップの次が詳細レビュー・ステップ300である。詳細レビュー・ステップの次が開発/デバグ・ステップ400である。最終ステップ500でプロセスが完了する。
図3を参照して、さらに詳細な局面を説明すると、機能キックオフ・ステップ100は多くの場合一組のサブステップを有し、そのうちの第1サブステップは機能自動化リーダーの確認102である。このステップは、ステップ106に示すように、機能チーム・リーダーおよび/または自動化チーム・リーダー若しくは何らかの形での両者の連携によって行なわれる。次いで、機能自動化リーダー102が条件をレビューするが、これがサブステップ104である。条件レビュー・ステップは多くの場合多数の局面/タスクを有する。参照符号108で示すように、このような機能条件は特定のソフトウェアがリリースのために凍結された後、機能チーム・リーダーがこの機能条件を所有することが好ましい。参照符号110は機能チーム・リーダーが機能チームと一緒に条件をレビューすることを示す。ステップ112において、機能自動化チームの一組のメンバーが条件のレビューに参加/協力する。次いでステップ114において、自動化チームのメンバーが1つまたは2つ以上の試験ケースを作成し(即ち、試験プランおよび試験ケース作成においてQAを支援)、これらの試験ケースを自動化する。こうして条件レビュー・ステップが、従って、機能キックオフ・ステップ100が完了する。
ハイレベル・レビュー・ステップ200は、好ましくは、2つの主要なステップ、即ち、機能設計レビュー・ステップ202と試験プラン提供/レビュー・ステップ204を含む。これらをそれぞれ説明する。
機能設計・レビュー・ステップ202は、図4に示すように、機能開発チームが機能設計の権限を所有するか、または機能設計を任せられるステップ206からスタートする。ステップ208において、機能自動化メンバーが機能設計のレビューに参加/協力する。ステップ210において、自動化メンバーは機能の全体的な設計を理解する;従って、機能の具体化に必要となる可能性がある機能フックおよびその他のインターフェースを認識し、(機能開発チームに)リクエストすることができる。こうして機能レビュー・ステップ202が完了する。試験プラン提供/レビュー・ステップ204は機能QAチームが試験プランを所有するステップ212で始まる。ステップ214において、機能自動化チームが品質保証に必要な1つまたは2つ以上の試験プランを作成する。ステップ216において、機能自動化チームが機能試験プランのレビューに参加する。これによって機能自動化チームは機能試験をハイレベルで理解することができ、ステップ218においてハイレベルの自動化評価を下すことができる。こうして試験プラン提供/レビュー・ステップ204が完了し、従って、ハイレベル・レビュー・ステップ200が完了する。
次のステップは詳細レビュー・ステップ300であり、このステップは多数のサブステップ、即ち、試験ケース・レビュー・ステップ302、設計自動化試験ステップ304、共通機能識別ステップ306、製品フック・リクエスト・ステップ308、自動化設計・レビュー・ステップ310、および自動化プロジェクト・プラン/開発タスク・リスト・ステップ312を含む。それぞれのステップを以下に説明する。
図5に示すように、試験ケース・レビュー・ステップ302は機能試験ケースが機能QAチームのメンバーの手中にあるか、またはこれらのメンバーに任せられるステップ314からスタートする。ステップ316において、機能自動化メンバーが機能の試験ケース・レビューに参加/協力する。ステップ318において、レビューの結果、機能自動化チームのメンバーは試験ケースを理解し、自動化のフレームワークと、必要なら、共通ライブラリとを設計することができる。サブステップはステップ320へ進み、必要に応じてさらにレビューを重ねることによって機能自動化チームが自動化を必要とする試験を明確に理解できるようにする。これによって、レビューを免れた試験ケースは皆無となる。ステップ322において、QAチームが全員で試験自動化プランをレビューし、シナリオを詳細に評価する。これで試験ケース・レビュー・ステップが完了する。設計自動化試験ス
テップ302は機能自動化チームが自動化設計を所有するステップ324からスタートする。ステップ326において、機能自動化チームが共通ライブラリおよびサンプル・試験ケースと共にハイレベル・フレームワークを作成する。この時点で、且つ試験ケースを実行する前に、主要レビュー者と機能チームからなんらかの必要な承認を得る。これで設計自動化試験ステップ304が完了する。次のステップである「共通機能識別」ステップ306において、機能試験すべてに利用できる共通機能を識別し、機能-特異ライブラリを作成する。これがステップ328である。ステップ330において、チームは機能試験自動化における共通機能を利用する。このステップは共通機能のうち、共有ライブラリへ移せるものがあるかどうかを判断するため試験結果を評価するステップ332で完了する。製品フック・リクエスト・ステップ308は機能自動化チームが試験および機能設計・レビュー後に必要と予想される製品フックのリストを用意するステップ334からスタートする。製品フックは機能開発チームによって識別される。ステップ336において、機能開発チームはSNMPインターフェース、管理コマンド、データベース問い合わせ、等のような便利な形のフックを識別する。
自動化設計・レビュー・ステップ310は機能自動化チームが機能自動化の設計を所有するステップ338からスタートする。ステップ340において、機能自動化の主要なレビュー者は機能のタイプに適用できるものとして下記のタイプの試験の1つまたは2つ以上について提案されたフレームワーク、共用ライブラリ追加分およびサンプル試験ケースの具体化をレビューする。ステップ342において、機能自動化チームは1つまたは2つ以上のステップにおける主要レビュー者と共に設計をレビューする。最後に、自動化プロジェクト・プラン/開発タスク・リストステップ312は、機能自動化チームが好ましくは時間およびコストの評価と一緒に正式のプロジェクト・プランまたは開発タスク・リストを作成することからスタートする。これがステップ344である。ステップ346において、機能開発プランに加えられる自動化プランおよび自動化評価が機能チーム・リーダーに提供される。これによって設計の経緯を辿ることができる。これで詳細レビュー・ステップ300が完了する。
開発/デバグ・ステップ400は多数のサブステップを有する。即ち、共用ライブラリ追加ステップ402、自動化試験実行ステップ404、自動化コード・レビュー・ステップ406、トリアージ自動化問題点ステップ408、およびデバグ自動化試験ステップ410を含む。これらのサブステップのそれぞれについて以下に説明する。
図6に示すように、共用ライブラリ増補ステップ402は機能自動化チームが共用ライブラリへの1つまたは2つ以上の追加分を識別するステップ412からスタートする。ライブラリ増補の提案はチームが機能設計および試験プランを見落としなくレビューした後に行なわれる。ステップ414において、機能自動化チームは必要に応じて1つまたは2つ以上の追加分を共用ライブラリに加える。ライブラリ増補は開発される機能のタイプに応じて異なる。即ち、もし機能が新規であれば、機能が増分的に補強または修正される場合よりも大幅に増補される可能性が高い。ステップ416において、共用ライブラリへの追加が実行される。これで共用ライブリ増補ステップ402が完了し、この時点で、自動化試験実行ステップ404が始まる。ステップ418において、(機能自動化チームによって)識別された1つまたは2つ以上の試験ケースを実行する。ステップ420において、チームはこの実行が試験ケースにおいて識別されたすべてのステップを漏れなくカバーしていることを立証する。ステップ422において、チームは適当なプロセス(例えば、PyChecker)を運用してエラーを無くし且つ/またはランタイムの問題を招く可能性を評価する。次いで、ステップ426において、コード・レビュー者は1つまたは2つ以上のステップにおけるコード・レビューをリクエストする。これで自動化試験実行ステップ404が完了する。
ここで自動化コード・レビュー・ステップ406が開始される。ステップ406の起点となるステップ428において、機能自動化チームはこのチームまたは他のチームからの主要レビュー者と共にコードをレビューする。ステップ430において、適用コーディング標準に合致していることを確認するためのレビューが行なわれる。ステップ432において、文書がレビューされる。ステップ434において、それぞれの試験ケースについて完全な試験カバレージが行なわれる。ステップ436において、エラー処理方法が評価される。ステップ438において、フレームワークが試験される。ステップ440において、共有ライブラリの具体化が試験される。ステップ442において、必要となる可能性があるツールが試験される。ステップ444において、エラー・チェックのため適当なプロセス(例えば、 PyChecker)が運用される。次いで、ステップ446において、コード・ブランチにさかのぼってコードがチェックされる。ステップ448において、機能のための共有ライブラリが識別される。ステップ450において、(もし必要なら)共有ライブラリの変更または増補が行なわれる。ステップ452において、試験のためのコードが完全なら、チームはQAに関与し、試験の論理カバレージを承認される。これを以って自動化コード・レビュー・ステップ406が完了する。
トリアージ自動化問題点ステップ408はステップ454からスタートする。このステップにおいて、機能に関連する自動化問題点(即ち、バグ)が識別され、問題点の原因について判断が下される。ステップ456において、チームはQAチームと、さらに、必要なら開発チームとも連携して、試験の欠陥が製品の問題点に起因するかどうか、また、どのように対処すべきかを判断する。これを以ってトリアージ自動化問題点ステップ408が完了する。最後に、デバグ自動化試験ステップ410はステップ460を伴い、このステップ460において、チームは欠陥を調査し、すべての試験がパスするまで適切な処置を行なう。これで開発/でバグステップ400が完了する。
自動化コードの開発およびレビューには、好ましくは1つまたは2つ以上の市販のツールを利用することができる。例えば、Eclipse(ソフトウェア開発環境)、PyDev(ユーザーがPython開発のためにEclipseを使用することを可能にするプラグイン)、PyChecker(Pythonソース・コード中にバグを発見するためのツール)およびPyLint(モジュールがコーディング標準に合致しているかどうかをチェックするPythonツール)などである。但し、これらのツールは代表的な例であって、他にも使用可能なツールが存在する。
最終ステップ500は多数のサブステップを含む:即ち、自動化コード統合ステップ502、試験スイート実行ステップ504、および試験リスト更新ステップ506を含む。これらのサブステップのそれぞれを以下に説明する。
図7に示すように、自動化コード統合ステップ502はコードを融合するステップ508からスタートする。次いで、チームは残る問題点を識別し、修正する。これがステップ510である。ここで自動化コード統合ステップ502が完了する。ステップ512において試験スイート実行ステップが開始される。このステップにおいて、チームは試験スイートを実行し、(機能試験スイートおよびこれに従属する他のすべての試験に)発生する問題点を修正する。ステップ514において、ランタイム統計が分析され、必要ならば、所要の性能に合わせて試験スイートが調整される。これで試験スイート実行ステップが完了する。最後に、試験スイート・リスト更新ステップ506が行なわれる。この最終ステップ516において、機能自動化チームは既存の試験スイートに対する変化を反映させて自動化試験スイート・リストを更新する。
本発明の方法およびシステムには多くの利点がある。ここに開示する方法はソフトウェア製品開発組織体がこれを利用することによって容易にソフトウェア開発ライフ・サイクルに組み込むことができる。SDLCプロセスを能率化して開発チームの各メンバーにか
かる綜合的な負担を軽減しながら製品の綜合的な品質を向上させることができる。さらに、自動化は下記のような便益を提供する:新製品開発のための自動化チームの定義付けを容易にし、開発サイクルの比較的早期に製品バグを識別することによって定期的な(例えば、年に二度の)リリースが必要となる場合、製品開発ライフ・サイクルが短縮され、製品品質に関する連続フィードバックが可能になり、機能チームが緊密に協働して高品質製品を提供することができ、任意のソフトウェア開発プロジェクトのため、堅牢且つ確実な自動化プラットホームを画定し、有効化することを可能にする。本発明の方法は組織のソフトウェア製品開発構想におけるソフトウェア試験自動化環境を画定するのに採用または調整できる繰返し可能なプロセスを提供する。さらにまた、事業体が試験自動化を通してソフトウェア品質保証(Q/A)の達成に向かって動くことを可能にする新規のソフトウェア組織モデルを明示する。
この方法は多様な形で利用することができる。ソフトウェア製品の試験を専門とする業界の組織ならば、この方法を利用して試験の自動化対策を確立し、実行することができる。複雑なソフトウェア製品の開発を手がける組織ならば、採用すべき自動化開発活動を画定し、実行することができる。また、ソフトウェア・プロセス・コンサルタント組織ならば、本発明の方法を利用することによって、製品の品質を高め、しかも、クライエントが負担する試験コストを軽減することができる。
これは1例に過ぎないが、この目的を達成するには、本出願人が所有する米国特許第20070234293号"Automated testing software framework"に記載されているようなソフトウェア自動化ツールを利用して図7のステップ512を実行することができる。このような自動化試験フレームワークはマシンにおいて(または複数マシンを通して)実行可能なプログラム・コードとして具体化することが好ましい。特定のマシンの詳細も作用環境もここでは問題ではない。このようなアプローチの1実施態様では、フレームワークによって要求される種々の機能を果す他のモジュールを呼び出す独立アプリケーションまたは「デーモン」としてコードが作用する。このようなモジュールの1つまたは2つ以上はフレームワークの一部であってもよいし、外部システムの一部であってもよい。デーモンが1つのマシンで実行し、サービス・モジュールの1つまたは2つ以上が同じまたは他のマシンで実行することができる。これによってフレームワークはプラットホーム共通のコンパチビリティを保証される。
1つの実施態様として、フレームワーク・デーモンは多数の支援ツールを有する。即ち、要求される種々の機能を提供する実行可能なモジュールを有する。例えば、フレームワーク・デーモンは一連の試験(またはバッチ)を実行し、その結果をデータベースに記録し、ローカル・マシンのウェブ・サーバーのウェブアクセス可能なディレクトリにノード・イメージおよびログを記憶させる。デーモンは好ましくはすべての例外、障害、クラッシュなどをe-メール受信者のターゲット群へe-メールするか、またはこれらの情報をバグ追跡システムに向かって転送する。このようにして、フレームワークは極めて設定が容易であり、且つ試験用語に煩わされない、機能的なクラスタ・レベル回帰試験ハーネスを提供することになる。フレームワークはまた、ホワイト-ボックス試験を行なうこともできる。一連のホスト、または単一のホストで行なうことのできる試験なら、自動化試験フレームワーク内で行なうことができる。
図2は、例えば、図7のステップ512において使用するための自動化試験フレームワークの具体化を示すブロックダイアグラムである。上述したように、フレームワークはデーモンの形を取るラッパーを含むツールボックスである。これは機能試験を可能にする拡張可能なフレームワークであり、好ましくは共通の、拡張可能な、簡単なツール群で構成されている。
図2から明らかなように、この実施態様に基づくフレームワーク201は2つの層:即ち、フレームワーク層203とツール層205とから成る。フレームワーク層203はフレームワークがフレームワーク自体、試験されている製品/システム、および要求される試験(およびその実行)を「知る」上で必要なロジック、モジュール、スクリプトまたはデータベースを含む。これに対して、ツール層205はシステムの分散管理を可能にし、例えば、構成インストール、ログ管理、データベース問い合わせなど種々のタスクを行なうツールを含む。ツール(または少なくともその幾つか)は非対話型であり、自動化され、再使用可能であり、集中管理または制御を必要としないツールであることが好ましい。
図2において、別々の論理モジュールを利用することによって、試験用システム(SUT)を割当て、インストールし、確認するネットワーク-アクセス可能なスクリプトである。デーモンは入ってくるリクエストに応えてターゲットである試験用システムに対して所与のパッケージソフトを運用する。結果ハンドラー・モジュール209は試験中に発生するデータを管理する。従って、例えば、デフォルト設定によって結果が結果ディレクトリに記録され、このディレクトリは好ましくは日/時/スイート/試験名によって識別される。それぞれの試験結果はフラット・テキスト・ファイル形式で記憶され、最新結果データベース・システムにアップロードされる。実行の完了後、結果アップロード・フラグが可能化されれば、デーモン207がこれらの結果を結果データベースにアップロードする。結果ハンドラー・モジュール209はまた結果をCSV-スタイル形式でe-メールすることによって他のシステムにアップロードし、これらの結果をデータベースに押し込むか、または最大アクセシビリティ・ディスク上のファイルに記憶させることもできる。試験実行モジュール211は究極的には実際の試験スイートの実行を担当するスクリプトである。このスクリプトは試験に必要なすべての細部(例えば、構成、初期化資源等)を扱う。このモジュールは好ましくは非閉鎖/タイムドアウトの態様で試験を実行する。即ち、試験が中断するか、または完了しないことを予期し;これらの試験をモニターし、必要に応じて停止させる。マスター試験システム・モジュール213は試験実行モジュール211を利用し、(個別スイートではなくフレームワーク・スイートのような)マスター・レベルのスイートを発生させることにより、(例えば、長時間のバーンイン、クイック・スモーク、パフォーマンス等のような)システム-レベル・カテゴリーのためのバッチ・システムとして作用する。コード・リポジトリ同期化モジュール215は(例えば、Perforceのような)すべてのリポジトリのリフレッシュを扱い、情報源管理サーバーからコード構造を引き出す。このモジュールに対して、データベース・モジュールは要求されている試験の位置と、これらの試験をリフレッシュすべきかどうかを教える。好ましくは、ローカル・コピーの有無に関係なく所与の試験スイートのためのファイルを同期化する。従って、情報源管理システムがマスター・コピーであると考えられる;これとは対照的に、フレームワークはそのローカル・コピーを当てにしない。データベース・リフレッシュ・モジュール217はすべてのデータベースの連結性を扱う。このモジュールはクラスタに関する情報を得て、この情報をデーモンに提供するのに利用される。リフレッシュ・モジュール217は要求されている試験/スイート情報を得るためにも利用される。試験情報データベース219は試験スイートにおけるそれぞれの試験に関する情報のほか、試験を実行するのに必要なあらゆる情報を含む。クラスタ情報データベース221はフレームワークが実行されるクラスタに関する該当情報を含む。このデータベースを試験実行の前に(または所与の試験スイートが実行される前に)ポーリングすることによって必要情報を見つけることができる。
ツール層205はそのコンポーネントとして、層中のツールのためのラッパーである分散コマンド・ハンドラー・モジュール223を含む。モジュール223はツールが非対話型態様でクラスタと相互作用することを可能にするSSH接続を介して、またはスクリプトまたはオープンAPIを介してアクセスできることが好ましい。分散コマンド・ハンドラー・モジュールへのアクセスに認証を必要とすることが好ましい。ログ回転または「イ
メージャー」モジュール225はシステム・ログをダンピングし、クラスタ・ノード・ログ中のエラー・メッセージをチェックし、試験完了後、クラスタ・ノード全体を通したデータベースをイメージングする。デーモン・マスター・モジュール227は試験用システムにおけるデーモンに対する、例えば、開始および終了のような細分制御を可能にするスクリプトである。データベース・スナップショット・モジュール229はSUT全体に亘って展開するデータベースのスナップショット231を入手して、これをローカル・マシンへプルバックする。スナップショット・モジュール229はSUTを実際にイメージするツールであり、ログ回転モジュールと協働することによって、所与の試験スイートの種々の試験実行間におけるSUTノードのすべてからログを得ることができる。スナップショット・モジュール229はまた、システム中のすべてのノードにおける現在データベースのイメージを捕捉し、これらのファイルをローカル・マシンへコピーバックし、これらのファイルを試験/スイート実行のためのログと一緒に記憶する。スナップショット・モジュールはクラスタの完全性を立証することもできる。構成インストーラ・モジュール233は分散コマンド・ハンドラー・モジュールを利用することによって、必要な設定スクリプトを含む、ターゲット・クラスタ全域の明確な構成をインストールするスクリプトである。モジュール233は構成データベース中の情報に基づいて自動的に必要値を決定するスクリプトとして具体化することもできる。モジュール235はターゲット・システムをワイピングまたはクリーニングし、必要なら、ディスク、データベース、ログ、ファイル等を初期化する。ヘルス・モニター237は実行システムの完全性を立証し、有効/無効プロセス、スワップ使用等のチェックをも行なう。常時、コールされればヘルス・モニター237はSUTに対するチェックを行なう。最後に、ゲートウェイ実装検証モジュール239は種々のゲートウェイの健全性を検証し、これらゲートウェイに対する種々のアクセス方法を実行するのに利用される;従って、このモジュールは試験実行モジュールが必要な資源の実装を要請するための実装システムとしても利用することができる。
フレームワークが使用できるツールは必ずしも図2にしめすツールに限定されることはなく、ほかにも種々のツールを使用することができる。また、図2においてツール層と機能/デーモン層との間に引かれている線は単に表現のためのものであって、発明の範囲を制限するものではない。上述したように、(実施態様に関係なく)フレームワークは「クリーン・ルーム」を提供しながらその中で試験を推進し、試験スイートが進行する間、状態を安定させるプラットホームに過ぎない。典型的な実施態様においては、自動化試験フレームワークはマシン起動商用ハードウェアおよびLinuxオペレーティング・システムで実行する。しかし、本発明はこれに制限されない。上述した通り、デーモンを所与のマシンで実行し、図2に示すモジュールの1つまたは2つ以上を同一のマシンまたは1つまたは2つ以上の他のマシンで実行することができる。即ち、フレームワークはLinux以外のオペレーション・システム、例えば、Solaris、HPUX, AIX, IRIX, OS/X, WinXP, Window 2000等で実行するクライエントにも対応することができる。従って、他の実施態様では、フレームワークが所与の試験のプラットホームを検知し、検知と同時に、この試験を支援することができる特異なプラットホームで実行する。
上述したように、マシンによっては異なるハードウェア、異なるソフトウェア、または異なるハードウェアと異なるソフトウェアとして実行することができる。結果として、フレームワークは高度の拡張可能性を有する。フレキシブルであり、容易に拡張することができ、さらには、試験言語およびクライエントのプラットホームに制約されなければ尚好ましい。このように実施すれば、フレームワークは言語の相違に制約されることなく、如何なる試験をも実行することができる。
図示のプロセス・フロー・ダイアグラムおよび以上の説明では、本発明の幾つかの実施態様によって行なわれるオペレーションが特定の順序を辿ることになっているが、この順序は飽くまでも例として挙げたものであり、他の実施態様では異なる順序でオペレーショ
ンを行なうか、幾つかのオペレーションを組み合わせるか、幾つかのオペレーションをオーバーラップすることができる。上記の実施態様は特定の機能、構造、または特徴を含むが、すべての実施態様が特定の機能、構造、または特徴を含むとは限らない。
方法またはプロセスに関連して本発明を説明したが、本発明は上記オペレーションを実行するための装置にも係わる。この装置は使用目的に合わせて構成するか、またはコンピュータに記憶されているコンピュータ・プログラムによって選択的に作用させるかまたは再構成させることができる汎用コンピュータを内蔵させることができる。このようなコンピュータ・プログラムはコンピュータ可読記憶媒体、例えば、光学ディスク、CD-ROMおよび磁気光学ディスクのような任意のディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気または光学カード、または電子指令の記憶に好適な媒体に記憶され、いずれもコンピュータ・システム・バスに接続される。上述したように、本発明の所与の具体化は所与のプログラミング言語で書かれたソフトウェアであり、Linuxのようなオペレーティング・システムを運用する標準的ハードウェア・プラットホーム上で実行される。
システムの所与のコンポーネントを個別に記述したが、当業者には明らかなように、機能の幾つかを組み合わせるか、または所与の指令、プログラム・シーケンス、コード部分等に振り分けることができる。
以上、本発明を説明したが、特許請求の範囲は後記の通りである。

Claims (10)

  1. 必要条件の収集と分析、設計、具体化、試験および統合のステップを含むソフトウェア開発ライフ・サイクルにおける改良であって、
    自動化チームを特定し;
    自動化チームをしてソフトウェア・設計および少なくとも1つの試験プランをレビューさせ;
    レビューに基づいて少なくとも1つの自動化試験を設計させ;
    少なくとも1つの自動化試験を行なうためのコードを作成し;
    前記コードを、試験すべき所与のソフトウェア機能を具体化するコードと統合し;
    統合されたコードに対して少なくとも1つの試験スイートを実行する
    ステップを含み、
    上記ステップの少なくとも1つはマシンにより具体化されることを特徴とする前記改良。
  2. 実行のステップにおいて識別される統合コード中のエラーを識別し、修正するステップをも含むことを特徴とする請求項1に記載の改良。
  3. 実行のステップにおいて自動化試験フレームワークを使用して少なくとも1つの試験スイートを実行することを特徴とする請求項1に記載の改良。
  4. 実行ステップ中に収集されるデータに応じて試験スイートを調整するステップをも含むことを特徴とする請求項1に記載の改良。
  5. 自動化チームをして、少なくとも1つの自動化試験を含む自動化フレームワークを作成させるステップをも含むことを特徴とする請求項1に記載の改良。
  6. 自動化フレームワークが共通ライブラリと、少なくとも1つの自動化試験を含む一連のサンプル試験ケースを含むことを特徴とする請求項5に記載の改良。
  7. 自動化チームが所与のソフトウェア機能に関して一組の機能試験に亘って使用すべき共通機能を識別することを特徴とする請求項1に記載の改良。
  8. 共通機能を共用ライブラリへ移せるかどうかを決定するステップをも含むことを特徴とする請求項7に記載の改良。
  9. 共通機能のコンポーネントを共用ライブラリへ移すステップをも含むことを特徴とする請求項8に記載の改良。
  10. ソフトウェア開発方法であって、
    自動化チームを特定し;
    自動化チームをしてソフトウェア・設計および少なくとも1つの試験プランをレビューさせ;
    レビューに基づいて少なくとも1つの自動化試験を設計させ;
    少なくとも1つの自動化試験を行なうためのコードを作成し;
    前記コードを、試験すべき所与のソフトウェア機能を具体化するコードと統合し;
    統合されたコードに対して少なくとも1つの試験スイートを実行する
    ステップを含み、
    上記ステップの少なくとも1つはマシンで具体化されることを特徴とするソフトウェア開発方法。
JP2010056973A 2009-03-16 2010-03-15 機能自動化のための方法およびシステム Withdrawn JP2010231782A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/405,036 US20100235807A1 (en) 2009-03-16 2009-03-16 Method and system for feature automation

Publications (2)

Publication Number Publication Date
JP2010231782A true JP2010231782A (ja) 2010-10-14
JP2010231782A5 JP2010231782A5 (ja) 2013-05-02

Family

ID=42731736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010056973A Withdrawn JP2010231782A (ja) 2009-03-16 2010-03-15 機能自動化のための方法およびシステム

Country Status (2)

Country Link
US (1) US20100235807A1 (ja)
JP (1) JP2010231782A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7228940B1 (ja) 2022-06-21 2023-02-27 ファインディ株式会社 プログラム、情報処理装置、方法、および情報処理システム

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110095050A (ko) * 2010-02-18 2011-08-24 삼성전자주식회사 공유 라이브러리 디버깅 장치
US20110296386A1 (en) * 2010-05-28 2011-12-01 Salesforce.Com, Inc. Methods and Systems for Validating Changes Submitted to a Source Control System
CN102685542B (zh) * 2011-03-09 2015-06-24 鸿富锦精密工业(深圳)有限公司 高清晰度多媒体接口测试***及方法
US8924930B2 (en) * 2011-06-28 2014-12-30 Microsoft Corporation Virtual machine image lineage
US9208064B2 (en) * 2011-08-09 2015-12-08 Red Hat, Inc. Declarative testing using dependency injection
US8677315B1 (en) * 2011-09-26 2014-03-18 Amazon Technologies, Inc. Continuous deployment system for software development
CN103034583B (zh) 2011-09-30 2016-03-30 国际商业机器公司 一种用于处理软件自动测试脚本的方法和***
US9053238B2 (en) * 2013-01-25 2015-06-09 International Business Machines Corporation Tool-independent automated testing of software
US20150244773A1 (en) * 2014-02-26 2015-08-27 Google Inc. Diagnosis and optimization of cloud release pipelines
US9665473B2 (en) * 2014-03-25 2017-05-30 Accenture Global Services Limited Smart tester application for testing other applications
US9893972B1 (en) 2014-12-15 2018-02-13 Amazon Technologies, Inc. Managing I/O requests
US9928059B1 (en) 2014-12-19 2018-03-27 Amazon Technologies, Inc. Automated deployment of a multi-version application in a network-based computing environment
US9767002B2 (en) 2015-02-25 2017-09-19 Red Hat Israel, Ltd. Verification of product release requirements
US20160283293A1 (en) * 2015-03-27 2016-09-29 Accenture Global Services Limited Automation system for implementing a standardized design methodology for a process automation service
US9886376B2 (en) 2015-07-29 2018-02-06 Red Hat Israel, Ltd. Host virtual address reservation for guest memory hot-plugging
US9588760B1 (en) * 2015-11-24 2017-03-07 International Business Machines Corporation Software application development feature and defect selection
US10489278B2 (en) 2016-05-16 2019-11-26 Jpmorgan Chase Bank, N.A. Method and system for implementing an automation software testing and packaging framework with entitlements
US10838846B1 (en) * 2016-05-16 2020-11-17 Jpmorgan Chase Bank, N.A. Method and system for implementing an automation software testing and packaging framework
AU2018200643A1 (en) * 2017-03-09 2018-09-27 Accenture Global Solutions Limited Smart advisory for distributed and composite testing teams based on production data and analytics
CN107608867A (zh) * 2017-08-31 2018-01-19 郑州云海信息技术有限公司 一种在集群存储上配置mdtest的元数据性能测试方法及***
US11323315B1 (en) 2017-11-29 2022-05-03 Amazon Technologies, Inc. Automated host management service
US10783065B2 (en) * 2018-03-23 2020-09-22 Sungard Availability Services, Lp Unified test automation system
CN110490483A (zh) * 2019-08-26 2019-11-22 中国建设银行股份有限公司 投产方法、装置、设备和存储介质
US20210089297A1 (en) * 2019-09-20 2021-03-25 Sungard Availability Services, Lp Automated check for ticket status of merged code
US11544656B1 (en) * 2019-12-31 2023-01-03 Bigfinite Inc. Self qualified process for cloud based applications
US20220261240A1 (en) * 2021-02-12 2022-08-18 N. S. International, Ltd. Agile, automotive spice, dev ops software development and release management system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6601018B1 (en) * 1999-02-04 2003-07-29 International Business Machines Corporation Automatic test framework system and method in software component testing
US6301701B1 (en) * 1999-11-10 2001-10-09 Tenfold Corporation Method for computer-assisted testing of software application components
US7080351B1 (en) * 2002-04-04 2006-07-18 Bellsouth Intellectual Property Corp. System and method for performing rapid application life cycle quality assurance
US7596778B2 (en) * 2003-07-03 2009-09-29 Parasoft Corporation Method and system for automatic error prevention for computer software
US20050204201A1 (en) * 2004-03-15 2005-09-15 Ramco Systems Limited Method and system for testing software development activity
US8032863B2 (en) * 2004-11-18 2011-10-04 Parasoft Corporation System and method for global group reporting
US7840944B2 (en) * 2005-06-30 2010-11-23 Sap Ag Analytical regression testing on a software build
US7937692B2 (en) * 2005-11-30 2011-05-03 Red Hat, Inc. Methods and systems for complete static analysis of software for building a system
US7694181B2 (en) * 2005-12-12 2010-04-06 Archivas, Inc. Automated software testing framework
US8914679B2 (en) * 2006-02-28 2014-12-16 International Business Machines Corporation Software testing automation framework
JP4148527B2 (ja) * 2006-06-05 2008-09-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 機能テスト・スクリプト生成装置
US20080034347A1 (en) * 2006-07-31 2008-02-07 Subramanyam V System and method for software lifecycle management
US7526681B2 (en) * 2006-08-07 2009-04-28 Sap Portals Israel Ltd. Software testing framework
DE102006050112A1 (de) * 2006-10-25 2008-04-30 Dspace Digital Signal Processing And Control Engineering Gmbh Verfahren zur Erstellung einer Anforderungsbeschreibung für ein eingebettetes System
US20090271760A1 (en) * 2008-04-24 2009-10-29 Robert Stephen Ellinger Method for application development
US20090276757A1 (en) * 2008-04-30 2009-11-05 Fraunhofer Usa, Inc. Systems and methods for inference and management of software code architectures
US8843877B2 (en) * 2008-11-17 2014-09-23 Hewlett-Packard Development Company, L.P. Integrated SOA deployment and management system and method for software services

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7228940B1 (ja) 2022-06-21 2023-02-27 ファインディ株式会社 プログラム、情報処理装置、方法、および情報処理システム
JP2024000571A (ja) * 2022-06-21 2024-01-09 ファインディ株式会社 プログラム、情報処理装置、方法、および情報処理システム

Also Published As

Publication number Publication date
US20100235807A1 (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP2010231782A (ja) 機能自動化のための方法およびシステム
EP3769223B1 (en) Unified test automation system
WO2020140820A1 (zh) 软件测试方法、***、装置、设备、介质及计算机程序产品
US8984489B2 (en) Quality on submit process
Chauhan et al. Latest research and development on software testing techniques and tools
US8352907B2 (en) Software application recreation
US9792203B2 (en) Isolated testing of distributed development projects
US7895565B1 (en) Integrated system and method for validating the functionality and performance of software applications
US20110307865A1 (en) User interface inventory
US8091066B2 (en) Automated multi-platform build and test environment for software application development
US8549483B1 (en) Engine for scalable software testing
US20130159963A1 (en) Agile Unit and Regression Testing Framework for Domain Specific Languages
US9672139B2 (en) Debugging in a production environment
US20170220324A1 (en) Data communication accelerator system
KR20130028207A (ko) 웹 기반의 소프트웨어 개발 및 테스트 자동화 장치
Sandobalin et al. End-to-end automation in cloud infrastructure provisioning
Hossain et al. Enhancing software quality using agile techniques
EP2913757A1 (en) Method, system, and computer software product for test automation
Santos-Neto et al. Requirements for information systems model-based testing
Jalalinasab et al. Towards model-based testing patterns for enhancing agile methodologies
Lassila Opportunities and challenges in adopting continuous end-to-end testing: A case study
Geraskin et al. Approach to end-to-end testing of the application for managing the configuration of enterprise virtual infrastructure
Hannonen Automated testing for software process automation
Jaakkola Building a Framework for Testing Background Service of Desktop Applications
Baumgartner et al. Use of Tools in Agile Projects

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121130

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20121204

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130314

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140108