LOGIN
התחברות או הרשמה
Avatar
להמשך הרשמה ידנית – לחץ על כפתור ההרשמה, להרשמה/כניסה מהירה בעזרת חשבון רשת חברתית – לחץ על הלוגו בכותרת

אפס סיסמה - שכחתי את שם המשתמש

שם משתמש
סיסמה
זכור אותי

he icon   en icon

בכדי להוסיף פוסט בבלוג יש להרשם או להתחבר - ההרשמה/כניסה מתבצעת מכותרת האתר.

תחרות הבדיקות הישראלית הראשונה ISTC 2017

נכתב על ידי 
שלישי, 11 יולי 2017 11:59
דרגו כתבה זו
(1 הצבעה)

בזכות יוזמה של אנה לוקובסקי נערכה לראשונה תחרות הבדיקות הישראלית - ISTC על ידי ITCB - העמותה הישראלית להסמכת בודקים, בשיתוף עם ג'ון ברייס הדרכה ומטריקס בדיקות ואוטומציה ובחסות נוספת של Inflectra ו-Agile Testing Days.

בתחרות הוכרזו "אלופי הבדיקות של ישראל 2017".

התחרות מיועדת לבודקים מנוסים וגם לאלו החדשים בתחום, המשוגעים לדבר, אשר אוהבים אתגרים ונהנים לבצע בדיקות. במסגרת התחרות התבקשו המתמודדים לבדוק מוצר שאינו מוכר להם בתנאים קיצוניים ובזמן מוגבל של 3 שעות בלבד.

המשתתפים נדרשו לזהות באגים, לדווח עליהם באופן ברור המאפשר תיקון, לערוך בדיקות לא פונקציונליות לפי הצורך ולסיום גם להגיש דו"ח סיכום מצב המוצר אשר יהווה ערך נוסף לחברת המוצר מבחינת שחרור הגרסה. 

צוות השופטים כלל מנהלי בדיקות בכירים המייצגים את חברות ה- IT וההייטק המובילות בישראל - אנה לוקובסקי ( יו"ר ISTC וצוות השופטים) ירון צוברי, דני אלמוג, דורית בן עוז, גיל זילברפלד, משה מאמיה, אמירה כרמלי,  פרופסור שלמה מארק, שגיא טרייבל ולאוניד רוזנפלד.

בחודש מאי נערך שלב המוקדמות שבו השתתפו 26 צוותים. שלב הגמר נערך בחודש יוני במסגרת כנס QA Geek Week 2017 אשר עורכת ג'ון ברייס הדרכה בשיתוף מטריקס בדיקות ואוטומציה.

בשלב הגמר השתתפו 13 מתחרים (7 צוותים), בהם הבודקים אשר הגיעו למקומות הראשונים במוקדמות.

במקום ראשון זכו יעל טייטלמן ערבות וזאבי גב מחברת Kenshoo עם דו"ח סיכום ורמת דיווח הכי טובים, נמצאו באגים חשובים ב-GUI.

יעל וזאבי: "שנינו עובדי חברת Kenshoo בצוותי בדיקות שונים, החלטנו להשתתף ביחד בתחרות ה-QA של ISTC כאתגר מקצועי ואישי. שמענו על התחרות ממנהלת הקבוצה ששאלה מי רוצה להשתתף בתחרות ומיד קפצנו על ההזדמנות. החלטנו להשתתף יחד בתחרות מפני שחשבנו שעבודת הצוות שלנו תוכל להביא את רמת הפוטנציאל המירבית.

במהלך ההכנות החלטנו לרשום רשימות של סוגי בדיקות שהיינו רוצים לכסות במסגרת התחרות ובפרט בדיקות שמתאימות יותר למובייל, לאחר סבב המוקדמות עברנו על הפידבקים של השופטים וניסינו לשפר את תהליכי הבדיקה לפי ההערות שקיבלנו (כגון צירוף סקרינשוטים).
האסטרטגיה שלנו היא לספק מוצר מוגמר ברמה הכי גבוהה ללקוח שיהנה מחווית משתמש נוחה ומוצלחת עם כמה שפחות תקלות בדרך, בעקבות זאת חילקנו בינינו את מסכי הבדיקות ואת סוגי הבדיקות הן במוקדמות והן בגמר בצורה שתאפשר היקף מקסימלי של בדיקת המוצר בזמן הקצוב. כחצי שעה לפני סיום הבדיקות הינו עוצרים, בודקים שעברנו על כל הנקודות וממשיכים הלאה לכתיבת הדוח המסכם.

אנו חושבים שהשתתפות בתחרות תוכל לתרום רבות הן בפן האישי והן הפן המקצועי בהעצמת יעול העבודה על פי עקרונות ה- Agile בתוך החברה ככלל ובעולם ה-QA בפרט. מאוד נהננו מההשתתפות בתחרות שהיוותה עבורנו אתגר מקצועי ואישי."

במקום השני זכו קורי אבידן טולדו ומיטל בן צבי מחברת Blackberry עם הרעיונות הכי טובים לבדיקות ושימוש בפלטפורמות מרובות

במקום השלישי זכו אורי ברכה ודן קופייקין מחברת Payoneer שמצאו הכי הרבה באגים קריטיים

פרסים יקרי ערך הוענקו לזוכים:

הפרס הראשון - טיסה, מלון והשתתפות בכנס ATD 2017 שיתקיים בפוטסדאם, גרמניה בנובמבר 2017. הפרס השני - קורס מקצועי של עד 40 שעות בג'ון ברייס הדרכה + טאבלט מתנה והפרס השלישי - קורס מקצועי של עד 40 שעות בג'ון ברייס הדרכה.

ברכות גם לשאר הצוותים שעלו והתחרו בגמר גביע:

טל חכמון  ועמנואל מולקנדוב מחברת Bank Hapoalim-Qualitest שמצאו באגים חשובים ב-GUI

סטפן שצפין ואנטון שרינוב מחברת CheckPoint שעשו שימוש בפלטפורמות מרובות

ודים קרימסקי ודוד גריץ מחברת SentinelOne שמצאו באגים חשובים ב-GUI

הילה רוה מחברת CyberArk שמצאה באג בעל הערך המשמעותי ביותר (Most Valuable Bug Award)

הארגון הישראלי לבדיקות תוכנה ITCB מברך על היוזמה של אנה, על יוזמה שצמחה מתוך הקהילה ולטובת עידוד, הנעה והנאה של קהילת הבודקים. אנחנו שמחים ומלאי גאווה והערכה על היוזמה שלקחה אנה בהולדת התחרות וההובלה שלה בפעם הראשונה בארץ. לראות את הפעילות הזו צומחת מתוך הקהילה ולמענה, מסב אושר רב, גאווה והחזיר מחדש את ההתלהבות לדמנו. אנחנו רוצים לברך את אלו שנרשמו לתחרות, את המשתתפים במוקדמות, את אלו שעלו לגמר, ואת הזוכים בגמר השנה - כל הכבוד לכולכם, בעיקר על התעוזה והפתיחות. זוהי הפעם הראשונה שהתחרות מתקיימת, ואנו נמשיך ונעשה את כל שניתן על מנת שהתחרות תתקיים שנה אחר שנה.

ולכל העוסקים במלאכה, אני רוצה להודות לחברים בארגון שסייעו בכל הקשור לתחרות, אני רוצה להודות לרם יוניש ולצוות המקסים של ג׳ון ברייס על הדאגה לארגון ואירוח התחרות, וכמובן להודות ולהביע את הערכתי לאנה, שבנוסף ליוזמה, גילתה נחישות ואחריות בלתי רגילים לכל פרט ופרט שנגע לתחרות ולמתחרים.

מזל טוב בשנית לזוכים, ומצפה לראות את כולם ועוד נוספים בשנה הבאה.

מוטי חדד, מנהל ג'ון ברייס הדרכה: "אנו שמחים לארח את תחרות הבדיקות הישראלית הראשונה מסוגה, אשר מהווה את אתגר הבדיקות האולטימטיבי, המעודד מצוינות, התמדה ודבקות במטרה. הצוותים מצאו סה"כ כ- 380 תקלות בסבב המוקדמות וכ-170 תקלות בסבב הגמר. שתי חברות המוצר Radiomize ו-KidInTouch אותם בדקו הנבחנים, הביעו שביעות רצון רבה מהרמה המקצועית של הבודקים ומהערך שקיבלו מהתחרות. אני בטוח שהתחרות היתה חווייתית עבור המשתתפים, מאחר וזוהי הזדמנות יחידה מסוגה עבורם לבחון את כישורי הבדיקה שלהם בתנאים קיצוניים ומאתגרים במיוחד".

שונה לאחרונה ב רביעי, 12 יולי 2017 09:50

חובה להיות משתמש רשום במערכת בכדי להגיב - ההרשמה/כניסה בכותרת האתר

חדשות מעולם הבדיקות

  • Five Blogs – 18 October 2018

    The (best) five blogs I read today. Check them out. What Is Data Democratization? A Super Simple Explanation And The Key Pros And Cons Written by: Bernard Marr What’s getting Agile down? Written by: Gary Watts Future of AI in Testing (Will You Be Replaced?) Written by: Joe Colantonio Jeff Hawkins Is Finally Ready to Explain His Brain Research Written by: Cade Metz Lower level Automation and testing? Be more precise! The Automation triangle revisited…again! Written by: Toyer Mamoojee Quote of the day: “When you’re young, being different is not cool. But when you’re older, it absolutely is.” -Lane Moore You can follow this page on Twitter

    17.10.2018 | 11:36 קרא עוד...
  • The Automated Regression Suite. Part 2 of 3. When to run the tests.

    Once you have your automated regression suite in place, you can create a scheduler to run them periodically, without any manual intervention. Mostly you will use Jenkins jobs (or some similar CI tool) to trigger them and have them running on an environment of your choice. Just because they are called “regression tests” it does not mean they are only meant to be run once before a release. They are in place to help validate your system, so you can run them as often as you want. But how often do you want to run them? That really depends on some factors like: how often are you releasing, how often are you committing, how many other services is your software dependent on, how often are those services also released, and so on. How often you are releasing determines the amount of new or changed code that needs to reach production. If you are releasing once a year, the amount of such code will be huge. If you release every two weeks you will have less such code, and in case a failure would occur in the software, it would be much easier to pinpoint the root of the problem (as compared to the one-year release cycle). If you are releasing rarely, with large amounts of time between releases, you really should run your tests at least once a week. From my experience, this test run frequency makes running these tests worth it, since you have a good amount of changed[…]

    17.10.2018 | 11:17 קרא עוד...
  • Let’s stop talking about testing, let’s start thinking about value

    Let’s stop talking about testing, let’s start thinking about value This year Alex Schladebeck and I did two keynotes titled “Let’s stop talking about testing, let’s start thinking about value” at QA Expo in Spain and TestNet in the Netherlands. This blogpost has the most important points we made in our talk. The keynote was inspired by some of our frustrations: “Testing is under appreciated” (Alex) and “Most testers are unable to explain what we do” (Huib). I wrote about my frustration back in 2016 already. This blogpost is about my frustration that most testers cannot come up with a decent definition of testing. And even worse: a big majority of the people who call themselves professional testers are not able to explain what testing is and how it works! They have trouble explaining what they are testing and why they are doing specifically the thing they are doing! How can anybody take a tester seriously who cannot explain what he is doing all day? Alex’s frustration is that testing is not valued by others. Developers are seen as the rockstars of the project because they create the software that adds value. But why are testers often not valued? Lowered expectations for testing expertise by stuff like ISO standards and ISTQB: I wrote about certification and standards before. ISTQB and standards put too much emphasis on process and documentation, rather than the real testing. By assuming there can be a standard, you say that there is one best way to organize and document your testing. But isn’t your test strategy[…]

    17.10.2018 | 5:05 קרא עוד...

טיפים

לרשימה המלאה >>